JP6067041B2 - Automatic privacy management for image sharing networks - Google Patents

Automatic privacy management for image sharing networks Download PDF

Info

Publication number
JP6067041B2
JP6067041B2 JP2015029290A JP2015029290A JP6067041B2 JP 6067041 B2 JP6067041 B2 JP 6067041B2 JP 2015029290 A JP2015029290 A JP 2015029290A JP 2015029290 A JP2015029290 A JP 2015029290A JP 6067041 B2 JP6067041 B2 JP 6067041B2
Authority
JP
Japan
Prior art keywords
image
data
user
sharing network
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015029290A
Other languages
Japanese (ja)
Other versions
JP2015143995A (en
Inventor
修一 倉林
修一 倉林
吉田 尚史
尚史 吉田
孝典 鷹野
孝典 鷹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Original Assignee
Empire Technology Development LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC filed Critical Empire Technology Development LLC
Priority to JP2015029290A priority Critical patent/JP6067041B2/en
Publication of JP2015143995A publication Critical patent/JP2015143995A/en
Application granted granted Critical
Publication of JP6067041B2 publication Critical patent/JP6067041B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本明細書に別段の表示がない限り、本明細書に記載される材料は本出願の請求項に対する先行技術ではなく、この部分に包含することによって先行技術と認められない。   Unless otherwise indicated herein, the materials described herein are not prior art to the claims of this application and are not admitted to be prior art by inclusion in this part.

画像共有サービスは、写真およびビデオなどの画像を、それらの画像をホストするネットワーククラウドにアップロードする能力をユーザに提供することができる。ひとたびネットワーククラウド上にあると、そのサービスのユーザがその画像を自らの友人、仲間、および他者と共有することを可能にするために、これらの画像を公に利用可能にすることができる。しかし、画像共有サービスは、公に共有される画像内の人々のプライバシーを保護するためのいかなる機構も提供しない。詳細には、画像共有サービスは、自らの画像がキャプチャーされていることを承認しなかった人々のプライバシーを保護するための機構を提供しない。さらに、画像共有サービスは、ユーザが画像内にキャプチャーする第三者のプライバシーを保護するために自らの画像を管理するためのツールをユーザに提供しない。代わりに、画像共有サービスのユーザは、第三者の画像が画像共有サービス上で公に共有されないことを確実にするために、それぞれの画像を手動で審査することによって、第三者のプライバシーを保護することが可能である。   Image sharing services can provide users with the ability to upload images, such as photos and videos, to the network cloud that hosts those images. Once on the network cloud, these images can be made publicly available to allow users of the service to share the images with their friends, peers, and others. However, image sharing services do not provide any mechanism for protecting the privacy of people in publicly shared images. Specifically, image sharing services do not provide a mechanism for protecting the privacy of those who have not approved that their images have been captured. Furthermore, image sharing services do not provide users with tools to manage their own images in order to protect the privacy of third parties that the users capture in the images. Instead, users of the image sharing service can protect third party privacy by manually reviewing each image to ensure that the third party images are not publicly shared on the image sharing service. It is possible to protect.

本明細書に記載される技術は、一般に、画像共有ネットワーク内の画像の管理に関する。   The techniques described herein generally relate to managing images in an image sharing network.

いくつかの例では、キャプチャーされた画像を管理するための方法が説明される。この方法は、画像がどこでキャプチャーされたかに関する画像位置データを含む画像データを受信することを含むことが可能である。この方法は、デバイスデータをデバイスから受信することを含むことも可能である。このデバイスデータは、デバイス位置データを含むことが可能である。この方法は、デバイスデータを画像データと相関させることを含むことも可能である。この方法は、デバイスデータと画像データとの相関に基づいて、その画像を修正することを含むことも可能である。   In some examples, a method for managing captured images is described. The method can include receiving image data that includes image position data regarding where the image was captured. The method can also include receiving device data from the device. This device data may include device position data. The method can also include correlating device data with image data. The method may also include modifying the image based on the correlation between the device data and the image data.

いくつかの例では、キャプチャーされた画像を管理するための方法が説明される。この方法は、その画像がどこでキャプチャーされたかに関する画像位置データを含む画像データを受信することを含むことが可能である。この方法は、デバイスデータをデバイスから受信することを含むことも可能である。デバイスデータは、デバイス位置データを含むことが可能である。この方法は、デバイスデータを画像データと相関させることを含むことも可能である。この方法は、デバイスデータと画像データとの相関に基づいて、そのデバイスのユーザが画像内に出現する確率を計算することを含むことも可能である。   In some examples, a method for managing captured images is described. The method can include receiving image data that includes image position data regarding where the image was captured. The method can also include receiving device data from the device. The device data can include device location data. The method can also include correlating device data with image data. The method may also include calculating a probability that a user of the device will appear in the image based on the correlation between the device data and the image data.

いくつかの例では、データ相関器と画像修正器とを含み得るシステムが説明される。このデータ相関器は、画像データをデバイスデータと相関させるように構成することができる。画像データは、画像がどこでキャプチャーされたかに関する画像位置データを含むことが可能であり、デバイスデータは、デバイスの位置に関するデバイス位置データを含むことが可能である。画像修正器は、画像位置データとデバイス位置データとの相関に基づいて、画像を修正するように構成することができる。   In some examples, a system is described that may include a data correlator and an image modifier. The data correlator can be configured to correlate image data with device data. The image data can include image position data regarding where the image was captured, and the device data can include device position data regarding the position of the device. The image corrector can be configured to correct the image based on the correlation between the image position data and the device position data.

いくつかの例では、データ相関器と計算ユニットとを含み得るシステムが説明される。データ相関器は、画像データをデバイスデータと相関させるように構成することができる。画像データは、画像がどこでキャプチャーされたかに関する画像位置データを含むことが可能であり、デバイスデータは、デバイスの位置に関するデバイス位置データを含むことが可能である。計算ユニットは、デバイスデータと画像データとの相関に基づいて、そのデバイスのユーザが画像内に出現する確率を計算するように構成することができる。   In some examples, a system is described that may include a data correlator and a calculation unit. The data correlator can be configured to correlate the image data with the device data. The image data can include image position data regarding where the image was captured, and the device data can include device position data regarding the position of the device. The calculation unit may be configured to calculate a probability that a user of the device will appear in the image based on the correlation between the device data and the image data.

いくつかの例では、プロセッサによって実行されたとき、そのコンテンツがプロセッサによって実行されたとき、そのプロセッサに画像がどこでキャプチャーされたかに関する画像位置データを含む画像データを受信させることが可能なコンピュータ可読記憶媒体が説明される。これらのコンテンツの実行は、プロセッサにデバイスデータをデバイスから受信させることも可能である。デバイスデータは、デバイス位置データを含むことも可能である。これらのコンテンツの実行は、プロセッサにデバイスデータを画像データと相関させることも可能である。これらのコンテンツの実行は、プロセッサに、デバイスデータと画像データとの相関に基づいて、画像を修正させることも可能である。   In some examples, a computer readable storage that, when executed by a processor, can cause the processor to receive image data including image location data regarding where the image was captured when the content is executed by the processor. The medium is described. Execution of these contents can also cause the processor to receive device data from the device. The device data can also include device location data. Execution of these contents can also cause the processor to correlate the device data with the image data. Execution of these contents may cause the processor to modify the image based on the correlation between the device data and the image data.

前述の概要は、単に例示のためであり、決して限定することが意図されない。上で説明された例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴は、図面および以下の詳細な説明を参照することによって明らかになるであろう。   The foregoing summary is merely exemplary and is not intended to be limiting in any way. In addition to the illustrative aspects, embodiments, and features described above, further aspects, embodiments, and features will become apparent by reference to the drawings and the following detailed description.

ある例示的な画像管理システムのブロック図である。1 is a block diagram of an exemplary image management system. 図1に示された例示的な画像管理システム内の画像共有ネットワークのコンポーネントを例示するブロック図である。FIG. 2 is a block diagram illustrating components of an image sharing network within the exemplary image management system shown in FIG. 図1および2の画像管理システム内で実施することができる方法のある例示的な流れ図である。3 is an exemplary flow diagram of a method that may be implemented within the image management system of FIGS. 図1および2の画像管理システム内で実施することができる方法のある例示的な流れ図である。3 is an exemplary flow diagram of a method that may be implemented within the image management system of FIGS. 図1および2の画像管理システム内で実施することができる方法のある例示的な流れ図である。3 is an exemplary flow diagram of a method that may be implemented within the image management system of FIGS. キャプチャーされた画像を管理するように構成されたある例示的なコンピューティングデバイスを示すブロック図である。FIG. 6 is a block diagram illustrating an example computing device configured to manage captured images.

各図はすべて、本明細書で説明される少なくともいくつかの実施形態に従って構成される。   Each figure is all configured in accordance with at least some embodiments described herein.

以下の詳細な説明では、本明細書の一部を形成する添付の図面が参照される。これらの図面において、内容に別段の規定がない限り、類似の記号は、一般に、類似のコンポーネントを識別する。詳細な説明、図面、および請求項において説明される例示的な実施形態は、限定であることを意味しない。本明細書に提示される主題の趣旨または範囲から逸脱せずに、その他の実施形態を利用することが可能であり、その他の変更を行うことが可能である。一般に本明細書で説明され、図面で例示される本開示の態様は、そのすべてが本明細書に明示的に企図される幅広い異なる構造で構成すること、置換すること、組み合わせること、分離すること、および設計することが可能である点を容易に理解されるであろう。   In the following detailed description, reference is made to the accompanying drawings, which form a part hereof. In these drawings, similar symbols typically identify similar components, unless the content clearly dictates otherwise. The illustrative embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Other embodiments may be utilized and other changes may be made without departing from the spirit or scope of the subject matter presented herein. The aspects of the present disclosure that are generally described herein and illustrated in the drawings may be configured, replaced, combined, or separated in a wide variety of different structures, all of which are explicitly contemplated herein. And it will be readily understood that it is possible to design.

本明細書で説明されるいくつかの実施形態は、一般に、クラウドベースの画像共有ネットワークまたは画像共有サービスと、画像共有ネットワーク上で共有される画像内にキャプチャーされた第三者のプライバシーを維持する能力とに関する。例えば、画像共有ネットワークは、写真内の人物の顔を不明瞭にすることによって、知らずに撮影された人物のプライバシーを維持することが可能である。   Some embodiments described herein generally maintain the privacy of a cloud-based image sharing network or image sharing service and third parties captured in images shared on the image sharing network. Regarding ability and. For example, an image sharing network can maintain the privacy of unintentionally photographed people by obscuring the person's face in the photo.

一般に、例えば、画像共有ネットワークは、写真またはビデオなどの画像を画像共有ネットワークのユーザから受信することが可能である。画像は、いつ、どこでその画像が撮影されたかに関する情報など、画像位置データを含むことが可能である。画像共有ネットワークは、そのプライバシーを保護させるために、画像共有サービスに登録した第三者から位置データを受信することも可能である。位置データは、第三者がいつ特定の位置にいたかを含むことが可能である。いくつかの実施形態では、第三者からの位置データは、第三者に関連する、スマートフォンなどの移動体通信デバイスから、画像共有ネットワークに送信することができる。   In general, for example, an image sharing network is capable of receiving images, such as photos or videos, from users of the image sharing network. An image can include image position data, such as information regarding when and where the image was taken. The image sharing network can also receive location data from a third party registered in the image sharing service in order to protect its privacy. The location data can include when a third party was at a particular location. In some embodiments, location data from a third party can be transmitted to an image sharing network from a mobile communication device, such as a smartphone, associated with the third party.

画像共有ネットワークは、1人または複数の第三者が画像内にキャプチャーされた確率を決定するために、第三者の位置データを画像位置データと相関させることが可能である。画像共有ネットワークが、1人または複数の第三者がその画像内にキャプチャーされたと決定した場合、第三者のプライバシーを保護するために、その画像を修正することが可能である。いくつかの実施形態では、画像は、その画像内の第三者の顔を不明瞭にすること、その画像内の第三者の顔を除去することによって、またはその画像が画像共有サービス上で公に共有されないように、その画像をプライベートとしてマーキングすることによって修正することが可能である。いくつかの実施形態では、画像共有ネットワークは、第三者がその画像をアップロードしたユーザを知っているかどうかを決定することが可能である。第三者がそのユーザを知っている場合、画像共有ネットワークは、その第三者がその画像の撮影対象であったと決定して、その画像を修正しないことが可能である。   The image sharing network can correlate the third party location data with the image location data to determine the probability that one or more third parties have been captured in the image. If the image sharing network determines that one or more third parties have been captured in the image, the image can be modified to protect the privacy of the third party. In some embodiments, the image is obscured by a third party face in the image, by removing a third party face in the image, or the image is on an image sharing service. It can be modified by marking the image as private so that it is not publicly shared. In some embodiments, the image sharing network can determine whether a third party knows the user who uploaded the image. If the third party knows the user, the image sharing network can determine that the third party was the subject of the image and not modify the image.

図1は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、ある例示的な画像管理システム100のブロック図である。この例示的な実施形態では、画像管理システム100は、画像共有ネットワーク110と、通信ネットワーク112と、モバイルデバイス120と、画像キャプチャーデバイス130とを含むことが可能である。   FIG. 1 is a block diagram of an exemplary image management system 100 configured in accordance with at least some embodiments described herein. In the exemplary embodiment, image management system 100 can include an image sharing network 110, a communication network 112, a mobile device 120, and an image capture device 130.

一般に、通信ネットワーク112は、モバイルデバイス120と画像キャプチャーデバイス130とが画像共有ネットワーク110と通信することを可能にする、1つもしくは複数の広域ネットワーク(WAN)および/またはローカルエリアネットワーク(LAN)を含むことが可能である。いくつかの実施形態では、通信ネットワーク112は、複数のWANおよび/またはLANの間の論理的接続ならびに物理的接続によって形成されたグローバルインターネットワークを含めて、インターネットを含むことが可能である。その代わりに、または加えて、通信ネットワーク112は、1つもしくは複数のセルラRFネットワーク、ならびに/あるいは1つもしくは複数の有線ネットワークおよび/または、これらに限定されないが、802.xxネットワーク、Bluetoothアクセスポイント、無線アクセスポイント、IPベースのネットワークなど、無線ネットワークを含むことが可能である。通信ネットワーク112は、あるタイプのネットワークが別のタイプのネットワークとインターフェースをとることを可能にするサーバを含むことも可能である。   In general, the communication network 112 includes one or more wide area networks (WANs) and / or local area networks (LANs) that allow the mobile device 120 and the image capture device 130 to communicate with the image sharing network 110. It is possible to include. In some embodiments, the communication network 112 may include the Internet, including a global internetwork formed by logical and physical connections between multiple WANs and / or LANs. Alternatively or additionally, communication network 112 may include, but is not limited to, one or more cellular RF networks and / or one or more wired networks and / or 802. It can include wireless networks such as xx networks, Bluetooth access points, wireless access points, IP-based networks, and the like. The communication network 112 may also include a server that allows one type of network to interface with another type of network.

画像共有ネットワーク110は、画像共有ネットワーク110のユーザによって画像共有ネットワーク110にアップロードされた画像を記憶および共有するように構成することができる。画像共有ネットワーク110は、写真などの画像を記憶することが可能である。これらの写真は、JPEG、TIFF、Exif、RAW、PNG、GIF、BMP、WEBP、PPM、PGM、PBM、およびPNMに限定されないが、これらを含めて、様々なファイルフォーマットで記憶することが可能である。画像共有ネットワーク110は、ビデオなどの画像を記憶することも可能である。ビデオは、DVおよびMP4に限定されないが、これらを含めて、様々なファイルフォーマットで記憶することが可能である。下でより詳細に説明されるように、画像共有ネットワーク110は、中でも、画像共有ネットワーク110上で共有される画像内にキャプチャーされた第三者のプライバシーを維持するために、画像を修正するように構成することができる。   The image sharing network 110 can be configured to store and share images uploaded to the image sharing network 110 by users of the image sharing network 110. The image sharing network 110 can store images such as photographs. These photos are not limited to JPEG, TIFF, Exif, RAW, PNG, GIF, BMP, WEBP, PPM, PGM, PBM, and PNM, but can also be stored in various file formats. is there. The image sharing network 110 can also store images such as videos. Videos can be stored in a variety of file formats, including but not limited to DV and MP4. As described in more detail below, the image sharing network 110, among other things, modifies images to maintain the privacy of third parties captured within images shared on the image sharing network 110. Can be configured.

画像共有ネットワーク110は、画像を画像キャプチャーデバイス130などの画像キャプチャーデバイスから受信することが可能である。画像キャプチャーデバイス130は、画像をキャプチャーして、通信ネットワーク112を介して画像を画像共有ネットワーク110にアップロードすることが可能である。画像キャプチャーデバイス130は、通信ネットワーク112にアップロードされた画像に関するデータを作成することも可能である。例えば、画像キャプチャーデバイス130は、その画像がキャプチャーされた位置、およびその画像がキャプチャーされた時間に限定されないが、これらを含むことが可能な、それぞれの画像に関する画像データを作成することが可能である。画像キャプチャーデバイス130は、GPS、無線ネットワーク、有線ネットワークを使用して、または画像キャプチャー当事者119から位置データを受信することによって、画像がキャプチャーされた位置を決定することが可能である。例えば、いくつかの実施形態では、画像キャプチャーデバイス130の位置は、周囲のモバイル電話基地局からの信号強度に基づいて決定することが可能である。いくつかの実施形態では、画像データを、メタデータとして画像内に埋め込んで、その画像と共に画像キャプチャーデバイス130にアップロードすることが可能である。いくつかの実施形態では、画像データは、画像から分離されてよく、その画像とは別個に画像共有ネットワーク110にアップロードすることも可能である。   The image sharing network 110 can receive images from an image capture device such as the image capture device 130. The image capture device 130 can capture an image and upload the image to the image sharing network 110 via the communication network 112. The image capture device 130 can also create data relating to images uploaded to the communication network 112. For example, the image capture device 130 can create image data for each image that can include, but is not limited to, the location at which the image was captured and the time at which the image was captured. is there. Image capture device 130 may determine the location at which the image was captured using GPS, wireless network, wired network, or by receiving location data from image capture party 119. For example, in some embodiments, the location of the image capture device 130 can be determined based on signal strength from surrounding mobile telephone base stations. In some embodiments, the image data can be embedded in the image as metadata and uploaded to the image capture device 130 along with the image. In some embodiments, the image data may be separated from the image and may be uploaded to the image sharing network 110 separately from the image.

画像キャプチャーデバイス130は、デジタルカメラまたはデジタルカムコーダなど、単なる画像キャプチャーデバイスであってもよい。いくつかの実施形態では、画像キャプチャーデバイス130は、モバイル電話もしくはスマートフォンなどのモバイル通信デバイス、ゲームシステム、携帯情報端末(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、ハンドヘルド電子デバイス、またはタブレットコンピュータなどに限定されないが、これらを含めて、別のデバイス内に含まれることも可能である。   The image capture device 130 may be a simple image capture device such as a digital camera or a digital camcorder. In some embodiments, the image capture device 130 is limited to a mobile communication device such as a mobile phone or smartphone, a gaming system, a personal digital assistant (PDA), a laptop computer, a desktop computer, a handheld electronic device, or a tablet computer. Although not included, they can be included in another device.

いくつかの実施形態では、画像キャプチャーデバイス130は、通信ネットワーク112を介して画像共有ネットワーク110と通信しない場合がある。画像キャプチャーデバイス130は、画像および画像データをパーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、またはその他の電子デバイスなど、二次的デバイス(図示せず)にダウンロードすることが可能である。二次的デバイスは、通信ネットワーク112を介して画像および画像データを画像共有ネットワーク110にアップロードすることが可能である。いくつかの実施形態では、画像キャプチャーデバイス130は、画像データを生成しない場合がある。二次的デバイスは、画像データを生成して、その画像データを画像キャプチャーデバイス130からの画像と共に画像共有ネットワーク110にアップロードすることが可能である。   In some embodiments, the image capture device 130 may not communicate with the image sharing network 110 via the communication network 112. The image capture device 130 can download the images and image data to a secondary device (not shown), such as a personal computer, laptop computer, tablet computer, or other electronic device. The secondary device can upload images and image data to the image sharing network 110 via the communication network 112. In some embodiments, the image capture device 130 may not generate image data. The secondary device can generate image data and upload the image data to the image sharing network 110 along with the image from the image capture device 130.

画像共有ネットワーク110は、データをモバイルデバイス120などのデバイスから受信することも可能である。モバイルデバイス120は、中でも、画像共有ネットワーク110とインターフェースをとり、デバイスデータを生成して、通信ネットワーク112を介してそのデバイスデータを画像共有ネットワーク110に送信する、1つまたは複数のアプリケーションを実行するように構成され得るデバイスデータ生成器122を含むことが可能である。デバイスデータは、モバイルデバイス120の位置、およびモバイルデバイス120がその位置にある時間を含むことが可能であるが、これらに限定されない。例えば、デバイスデータは、モバイルデバイス120がある時間にある経度および緯度にあることを示すことができる。   The image sharing network 110 can also receive data from a device such as the mobile device 120. The mobile device 120, among other things, executes one or more applications that interface with the image sharing network 110, generate device data, and send the device data to the image sharing network 110 via the communication network 112. A device data generator 122 may be included that may be configured as such. The device data can include, but is not limited to, the location of the mobile device 120 and the time that the mobile device 120 is in that location. For example, the device data can indicate that the mobile device 120 is at a longitude and latitude at a certain time.

いくつかの実施形態では、デバイスデータ生成器122は、GPSを使用して、モバイルデバイス120の位置を決定することが可能である。その代わりに、または加えて、デバイスデータ生成器122は、1つもしくは複数の無線ネットワークまたは有線ネットワークを使用して、あるいはその位置を決定するための任意のその他の手段を使用して、モバイルデバイス120の位置を決定することが可能である。例えば、いくつかの実施形態では、モバイル通信ネットワークの周辺基地局からの信号強度に基づいて、デバイス120の位置を決定することが可能である。さらに、いくつかの実施形態では、デバイスデータ生成器122は、モバイルデバイス120が新しい位置に移動したことをデバイスデータ生成器122が決定するたびに、画像共有ネットワーク110に送信するために、追加のデバイスデータを生成することが可能である。その代わりに、または加えて、デバイスデータ生成器122は、設定された1つもしくは複数の時間間隔、例えば、1分ごと、2分ごと、5分ごと、またはその他の時間間隔で追加のデバイスデータを周期的に生成することが可能である。その代わりに、または加えて、デバイスデータ生成器122は、モバイルデバイス120の位置を監視して、モバイルデバイス120が直前に報告された位置から所定の距離を移動した後で、追加のデバイスデータを生成することが可能である。   In some embodiments, the device data generator 122 can determine the location of the mobile device 120 using GPS. Alternatively or additionally, the device data generator 122 may use a mobile device using one or more wireless or wired networks, or any other means for determining its location. It is possible to determine 120 positions. For example, in some embodiments, the location of the device 120 can be determined based on signal strength from neighboring base stations of the mobile communication network. Further, in some embodiments, the device data generator 122 may add additional information for transmission to the image sharing network 110 each time the device data generator 122 determines that the mobile device 120 has moved to a new location. Device data can be generated. Alternatively or additionally, the device data generator 122 may add additional device data at one or more set time intervals, eg, every minute, every two minutes, every five minutes, or other time intervals. Can be generated periodically. Alternatively or additionally, the device data generator 122 monitors the location of the mobile device 120 and retrieves additional device data after the mobile device 120 has moved a predetermined distance from the previously reported location. It is possible to generate.

いくつかの実施形態では、デバイスデータ生成器122は、デバイス情報をリアルタイムで送信することが可能である。その代わりに、または加えて、デバイスデータ生成器122は、デバイス情報を記憶して、毎時間、2時間ごと、12時間ごと、または一日一度など、より低い頻度でそのデバイス情報を送信することが可能である。いくつかの実施形態では、デバイスデータ生成器122は、デバイスデータを画像共有ネットワーク110に自動的に送信することが可能である。その代わりに、または加えて、デバイスデータ生成器122は、モバイルデバイス120の所有者である第三者118の要求により、デバイスデータを画像共有ネットワーク110に送信することが可能である。   In some embodiments, the device data generator 122 can transmit device information in real time. Alternatively or additionally, the device data generator 122 stores device information and transmits the device information less frequently, such as every hour, every two hours, every twelve hours, or once a day. Is possible. In some embodiments, the device data generator 122 can automatically send device data to the image sharing network 110. Alternatively or additionally, the device data generator 122 can send device data to the image sharing network 110 at the request of a third party 118 that is the owner of the mobile device 120.

モバイルデバイス120は、位置データおよび時間のデータを生成することが可能な任意の電子デバイスであってよい。例えば、いくつかの実施形態では、モバイルデバイス120は、その位置を決定することができるモバイル電話もしくはスマートフォン、タブレット、GPSナビゲーションシステムデバイス、ゲームシステム、メディアプレイヤ、またはその他の電子デバイスなど、モバイル通信デバイスを含むことが可能であるが、これに限定されない。いくつかの実施形態では、モバイルデバイス120は、通信ネットワーク112を介して画像共有ネットワーク110と通信しない場合がある。例えば、デバイスデータ生成器122は、デバイスデータを生成して、そのデバイスデータを画像共有ネットワーク110にアップロードできるパーソナルコンピュータ、ラップトップ、モバイル通信デバイス、タブレット、またはその他の電子デバイスなど、二次的デバイス(図示せず)にそのデバイスデータをダウンロードすることが可能である。   Mobile device 120 may be any electronic device capable of generating location data and time data. For example, in some embodiments, the mobile device 120 is a mobile communication device, such as a mobile phone or smartphone, tablet, GPS navigation system device, gaming system, media player, or other electronic device that can determine its location. However, it is not limited to this. In some embodiments, the mobile device 120 may not communicate with the image sharing network 110 via the communication network 112. For example, the device data generator 122 generates secondary device data and uploads the device data to the image sharing network 110, such as a personal computer, laptop, mobile communication device, tablet, or other electronic device. It is possible to download the device data (not shown).

モバイルデバイス120から受信されたデバイスデータは、画像共有ネットワーク110が、モバイルデバイス120の第三者118所有者の現在の位置および過去の位置、ならびに第三者118がそれらの位置にいた時間を決定することを可能にする。下でより詳細に説明されるように、モバイルデバイス120から受信されたデバイスデータと、画像キャプチャーデバイス130から受信された画像データとを使用して、画像共有ネットワーク110は、第三者118が、画像キャプチャーデバイス130を使用して画像キャプチャー当事者119によって撮影された画像内にキャプチャーされた確率を決定することが可能である。この決定に基づいて、いくつかの実施形態では、画像共有ネットワーク110は、第三者118の画像が画像共有ネットワーク110によって公に表示されることを防止するために、その画像を修正することが可能である。いくつかの実施形態では、モバイルデバイス120の所有者である第三者118は、デバイスデータが生成されないように、または画像共有ネットワーク110に送信されないように、デバイスデータ生成器122をオフにすることができる。デバイスデータが生成されない場合、画像共有ネットワーク110は、第三者118の画像が画像共有ネットワーク110によって公に表示されることを防止しなくてよい。   Device data received from the mobile device 120 determines the image sharing network 110 current and past locations of the third party 118 owners of the mobile device 120 and the time the third party 118 was at those locations. Make it possible to do. As described in more detail below, using the device data received from the mobile device 120 and the image data received from the image capture device 130, the image sharing network 110 can be used by a third party 118, Image capture device 130 can be used to determine the probability of being captured in an image taken by image capture party 119. Based on this determination, in some embodiments, image sharing network 110 may modify the image to prevent third party 118 images from being publicly displayed by image sharing network 110. Is possible. In some embodiments, the third party 118 that is the owner of the mobile device 120 turns off the device data generator 122 so that device data is not generated or transmitted to the image sharing network 110. Can do. If device data is not generated, the image sharing network 110 may not prevent third party 118 images from being publicly displayed by the image sharing network 110.

図2は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、図1に示された画像管理システム100内の画像共有ネットワーク110のコンポーネントを例示するブロック図である。例示されるように、画像共有ネットワーク110は、デバイスデータ解析器212と、解析データ記憶装置214と、画像記憶装置220と、画像解析器222と、解析画像データ記憶装置224と、データ相関器230と、計算ユニット232と、画像修正器234とを含むことが可能である。いくつかの実施形態では、解析データ記憶装置214、画像記憶装置220、および解析画像データ記憶装置224は、それぞれ、一時的でないコンピュータ可読記憶媒体を含むことが可能であり、かつ/または、それぞれ、同じ一時的でないコンピュータ可読記憶媒体内もしくは異なる一時的でないコンピュータ可読記憶媒体内の論理パーティションを表すことが可能である。デバイスデータ解析器212、画像解析器222、データ相関器230、計算ユニット232、および画像修正器234のそれぞれは、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの両方の組合せの形で実施することが可能である。その代わりに、または加えて、画像共有ネットワーク110は様々な個別のコンポーネントを有するとして例示されるが、様々なコンポーネントは、所望される実装形態によって、追加のコンポーネントに分割されてよく、組み合わされて、より少ないコンポーネントを形成してよく、または除去されてもよい。   FIG. 2 is a block diagram illustrating components of the image sharing network 110 in the image management system 100 shown in FIG. 1 configured in accordance with at least some embodiments described herein. As illustrated, the image sharing network 110 includes a device data analyzer 212, an analysis data storage device 214, an image storage device 220, an image analyzer 222, an analysis image data storage device 224, and a data correlator 230. And a calculation unit 232 and an image modifier 234 can be included. In some embodiments, the analytical data storage device 214, the image storage device 220, and the analytical image data storage device 224 can each include a non-transitory computer readable storage medium and / or It is possible to represent logical partitions in the same non-transitory computer-readable storage medium or in different non-transitory computer-readable storage media. Each of device data analyzer 212, image analyzer 222, data correlator 230, calculation unit 232, and image modifier 234 may be implemented in hardware, software, or a combination of both hardware and software. Is possible. Alternatively or additionally, the image sharing network 110 is illustrated as having various individual components, but the various components may be divided into additional components and combined depending on the desired implementation. Fewer components may be formed or removed.

デバイスデータ解析器212は、モバイルデバイス120のデバイスデータ生成器122からデバイスデータを受信するように構成することができる。デバイスデータ解析器212は、その代わりに、または加えて、デバイスデータを使用して、モバイルデバイス120の移動経路を計算するように構成することも可能である。いくつかの実施形態では、画像共有ネットワーク110によって受信されたデバイスデータは、異なる時間間隔でモバイルデバイス120の位置を表すことが可能である。例えば、デバイスデータは、時間Aのモバイルデバイス120の位置、および時間Bのモバイルデバイス120の位置を含むことが可能であるが、時間AとBの間の期間中のモバイルデバイス120の位置を含まない可能性がある。例えば、モバイルデバイス120が移動しており、デバイスデータ生成器122が毎分デバイスデータを生成している場合、デバイスデータ内の位置データ点間のモバイルデバイス120の位置は、そのデバイスデータ内に含まれない可能性がある。少なくともこれらの事例において、デバイスデータ解析器212は、モバイルデバイス120によって提供されたデバイスデータに基づいて、1つまたは複数の時間枠においてモバイルデバイス120の位置を補間することが可能である。   Device data analyzer 212 may be configured to receive device data from device data generator 122 of mobile device 120. The device data analyzer 212 may alternatively or additionally be configured to use the device data to calculate the travel path of the mobile device 120. In some embodiments, device data received by the image sharing network 110 may represent the location of the mobile device 120 at different time intervals. For example, the device data may include the location of mobile device 120 at time A and the location of mobile device 120 at time B, but includes the location of mobile device 120 during the period between times A and B. There is no possibility. For example, if the mobile device 120 is moving and the device data generator 122 is generating device data every minute, the position of the mobile device 120 between position data points in the device data is included in the device data. It may not be possible. In at least these cases, the device data analyzer 212 can interpolate the position of the mobile device 120 in one or more time frames based on the device data provided by the mobile device 120.

いくつかの実施形態では、デバイスデータ解析器212は、道路情報を使用して、1つまたは複数の時間枠においてデバイスの位置を補間することが可能である。デバイスデータ解析器212は、地理情報システムの道路情報を含めて、1つまたは複数のソースから道路情報を取得することが可能である。デバイスデータ解析器212は、デバイスデータからの2つの位置をリンクさせるために、道路の最近かつ最短の組合せを検索することができる。この情報を使用して、デバイスデータ解析器212は、モバイルデバイス120によって提供されたデータ点間の時間枠におけるモバイルデバイス120の位置を補間することが可能である。例えば、モバイルデバイス120がT秒ごとにデバイスデータを生成し、時間Aにおいて地点Dにおり、時間Cにおいて地点Fにいた場合、デバイスデータ解析器212は、時間Aの後、かつ時間Cの前に発生した時間Bにおいて、モバイルデバイス120が地点DとFの間の地点Eに位置し得ると、補間することが可能である。   In some embodiments, the device data analyzer 212 can use the road information to interpolate the position of the device in one or more time frames. The device data analyzer 212 can obtain road information from one or more sources, including road information of the geographic information system. The device data analyzer 212 can retrieve the latest and shortest combination of roads to link the two locations from the device data. Using this information, device data analyzer 212 can interpolate the position of mobile device 120 in the time frame between data points provided by mobile device 120. For example, if the mobile device 120 generates device data every T seconds and is at point D at time A and is at point F at time C, the device data analyzer 212 may be after time A and before time C. If the mobile device 120 can be located at a point E between points D and F at time B occurring at, it can be interpolated.

いくつかの実施形態では、デバイスデータ解析器212は、デバイス位置セルを作成するためにグリッドパターンを使用して地球を分割して、デバイスデータ点および補間デバイスデータ点をその適切なデバイスセル内に配置することも可能である。このデータ構造では、それぞれのデバイス位置セルは、現実世界の特定の領域に対応し得る。これにより、モバイルデバイス120を、モバイルデバイス120が横断する位置を含むデバイス位置セルと関連付けることが可能である。デバイス位置セルは、経度および緯度、地理的境界、通り、都市の境界、またはその他の要因のうちの1つもしくは複数に基づいて決定することが可能である。さらに、デバイス位置セルのサイズは、多様であってよく、所望される分解能、メモリ制約、処理電力、およびその他の要因に限定されないが、これらなど、1つまたは複数の要因に依存し得る。モバイルデバイス120から受信されたデバイスデータ、および任意の補間デバイスデータは、後で使用するために、解析データ記憶装置214内に記憶することが可能である。デバイスデータおよび補間デバイスデータは、いくつかの実施形態では、その関連するデバイス位置セルに従って記憶することが可能である。   In some embodiments, the device data analyzer 212 divides the earth using a grid pattern to create device position cells and places the device data points and interpolated device data points within the appropriate device cells. It is also possible to arrange. In this data structure, each device location cell may correspond to a specific area of the real world. This allows the mobile device 120 to be associated with a device location cell that includes the location that the mobile device 120 traverses. The device location cell may be determined based on one or more of longitude and latitude, geographic boundaries, streets, city boundaries, or other factors. Further, the size of the device location cell may vary and may depend on one or more factors such as, but not limited to, the desired resolution, memory constraints, processing power, and other factors. Device data received from the mobile device 120 and any interpolated device data can be stored in the analysis data store 214 for later use. Device data and interpolated device data may be stored according to its associated device position cell in some embodiments.

画像共有ネットワーク110は、画像キャプチャーデバイス130から画像を受信して、それらの画像を画像記憶装置220内に記憶するように構成することもできる。画像共有ネットワーク110は、画像キャプチャーデバイス130から画像データを受信するように構成することもできる。上記のように、いくつかの実施形態では、画像データは、画像の一部として埋め込まれてもよい。これらの実施形態およびその他の実施形態では、これらの画像は、画像から画像データを抽出するために、画像解析器222に送信することが可能である。いくつかの実施形態では、画像が画像記憶装置220内に記憶される前に、それらの画像は画像解析器222によって解析される。いくつかの実施形態では、これらの画像は、画像記憶装置220内に記憶されて、画像データを抽出するために、後で画像解析器222によってアクセスされて、解析される。   The image sharing network 110 may also be configured to receive images from the image capture device 130 and store those images in the image storage device 220. The image sharing network 110 can also be configured to receive image data from the image capture device 130. As described above, in some embodiments, the image data may be embedded as part of the image. In these and other embodiments, these images can be sent to the image analyzer 222 to extract image data from the images. In some embodiments, the images are analyzed by the image analyzer 222 before the images are stored in the image store 220. In some embodiments, these images are stored in the image storage device 220 and later accessed and analyzed by the image analyzer 222 to extract image data.

画像から抽出されようと、または画像キャプチャーデバイス130から独立して受信されようと、画像データを解析することが可能である。いくつかの実施形態では、画像解析器222は、画像位置セルを作成するために、グリッドパターンを使用して地球を分割して、その画像データ内の位置データに基づいて、その画像を特定の画像位置セル内に配置することが可能である。このデータ構造では、それぞれの画像位置セルは、現実世界の特定の領域に対応し得る。これにより、画像を、その画像がキャプチャーされた位置を含む画像位置セルと関連付けることが可能である。例えば、いくつかの実施形態では、画像位置セルは、4都市ブロックであってよい。画像がそれらの4都市ブロック内でキャプチャーされた場合、その画像をその画像位置セルとリンクさせることが可能である。画像位置セルは、経度および緯度、地理的境界、通り、都市の境界、またはその他の要因のうちの1つもしくは複数に基づいて決定することが可能である。さらに、画像位置セルのサイズは、多様であってよく、所望される分解能、メモリ制約、処理電力、およびその他の要因に限定されないが、これらなど、1つまたは複数の要因に依存し得る。いくつかの実施形態では、画像位置セルは、デバイスデータを解析するために、サイズの点でデバイスデータ解析器212によって使用される位置セルに類似し得る。   The image data can be analyzed whether extracted from the image or received independently from the image capture device 130. In some embodiments, the image analyzer 222 divides the earth using a grid pattern to create an image position cell and identifies the image based on the position data in the image data. It can be placed in an image location cell. In this data structure, each image location cell may correspond to a specific area of the real world. This allows the image to be associated with an image location cell that includes the location where the image was captured. For example, in some embodiments, the image location cell may be a four city block. If an image is captured within those four city blocks, it can be linked to its image location cell. The image location cell can be determined based on one or more of longitude and latitude, geographic boundaries, streets, city boundaries, or other factors. Further, the size of the image location cell may vary and may depend on one or more factors such as, but not limited to, the desired resolution, memory constraints, processing power, and other factors. In some embodiments, the image location cell may be similar to the location cell used by the device data analyzer 212 in terms of size to analyze the device data.

解析画像データ記憶装置224は、画像位置と画像時間とを含めて、画像データを記憶することが可能である。いくつかの実施形態では、画像データは、画像データに関連する画像位置セルに従って、解析画像データ記憶装置224内に記憶することが可能である。   The analysis image data storage device 224 can store the image data including the image position and the image time. In some embodiments, the image data can be stored in the analytic image data store 224 according to the image location cell associated with the image data.

データ相関器230は、画像が、モバイルデバイス120がある位置にいるおおよその時間に同じ位置でキャプチャーされた事実を決定するために、デバイスデータを画像データと比較することによって、解析データ記憶装置214内に記憶されたデバイスデータを解析画像データ記憶装置224内に記憶された画像データと相関させるように構成することができる。データ相関器230は、任意の知られているアルゴリズムを使用して、デバイスデータを画像データと相関させることが可能である。画像データが画像位置セルに関連するいくつかの実施形態では、データ相関器230は、デバイスデータを画像データと相関させるために、モバイルデバイス120が画像位置セルを横断したかどうか、または画像位置セル内にあったかどうか、およびモバイルデバイス120が画像位置セルを横断したおおよその時間または画像位置セル内にあったおおよその時間を決定することが可能である。画像データが画像位置セルに関連し、デバイスデータがデバイス位置セルに関連するいくつかの実施形態では、データ相関器230は、モバイルデバイス120が横断したデバイス位置セルがその画像に関連する画像位置セルと同じであるかどうか、または当該画像位置セルに近いかどうかを決定することが可能である。デバイス位置セルと画像位置セルとが一致する場合、重複する場合、または近い関係にある場合、データ相関器230は、デバイスデータと画像データとの間の相関を決定するために、デバイス位置セルに関連する時間データと画像位置セルに関連する時間データとが一致するか、重複するか、または近い関係にあるかどうかを決定することが可能である。   The data correlator 230 compares the device data with the image data to determine the fact that the image was captured at the same location at the approximate time that the mobile device 120 was at a location, thereby analyzing the data store 214. The device data stored therein may be configured to correlate with the image data stored in the analysis image data storage device 224. The data correlator 230 can correlate the device data with the image data using any known algorithm. In some embodiments where the image data is associated with an image location cell, the data correlator 230 determines whether the mobile device 120 has crossed the image location cell or the image location cell to correlate the device data with the image data. It is possible to determine whether and within which time the mobile device 120 was within the image location cell or the approximate time that the mobile device 120 was within the image location cell. In some embodiments in which the image data is associated with an image location cell and the device data is associated with a device location cell, the data correlator 230 is configured such that the device location cell traversed by the mobile device 120 is associated with that image. It is possible to determine whether or not the image position cell is close. If the device location cell and the image location cell match, overlap, or are in close relationship, the data correlator 230 may store the device location cell to determine the correlation between the device data and the image data. It is possible to determine whether the associated time data and the time data associated with the image location cell match, overlap or are closely related.

いくつかの実施形態では、デバイスデータおよび画像データの時間データと位置データとが対応する場合、データ相関器230は、画像キャプチャー当事者119がモバイルデバイス120の所有者である第三者118に知られているかどうかを決定することが可能である。データ相関器230が、画像キャプチャー当事者119が第三者118に知られていることを決定した場合、データ相関器230は、第三者118が画像キャプチャー当事者119によってキャプチャーされた任意の画像を承認したと決定することが可能である。結果として、画像共有ネットワーク110は、その画像を修正しなくてよい。   In some embodiments, the data correlator 230 is known to the third party 118 where the image capture party 119 is the owner of the mobile device 120 if the time and position data of the device data and image data correspond. It is possible to determine whether or not. If data correlator 230 determines that image capture party 119 is known to third party 118, data correlator 230 approves any image that third party 118 has captured by image capture party 119. It is possible to determine that As a result, the image sharing network 110 may not modify the image.

データ相関器230は、その画像に関連する名前情報を、第三者118に関連する人々のリストと比較することによって、画像キャプチャー当事者119が第三者118に知られているかどうかを決定することが可能である。例えば、いくつかの実施形態では、画像共有ネットワーク110は、アップロードされた画像をその画像をアップロードした画像キャプチャー当事者119の名前と関連付けることが可能である。第三者118が仲間のリストを画像共有ネットワーク110に提供してもよい。データ相関器230は、第三者118が画像キャプチャー当事者119を知っているかどうかを決定するために、その仲間のリストと、関連付けた名前とを使用することが可能である。いくつかの実施形態では、第三者118は、第三者118が参加しているソーシャルネットワークに対するアクセスを画像共有ネットワーク110に付与することが可能であり、画像共有ネットワーク110は、第三者118のソーシャルネットワークの人間関係に基づいて、仲間のリストを生成することが可能である。   Data correlator 230 determines whether image capture party 119 is known to third party 118 by comparing name information associated with the image to a list of people associated with third party 118. Is possible. For example, in some embodiments, the image sharing network 110 can associate an uploaded image with the name of the image capture party 119 that uploaded the image. A third party 118 may provide a list of friends to the image sharing network 110. Data correlator 230 can use the list of associates and associated names to determine whether third party 118 knows image capture party 119. In some embodiments, the third party 118 can grant the image sharing network 110 access to the social network in which the third party 118 is participating, and the image sharing network 110 It is possible to generate a list of friends based on the social relationships of other social networks.

デバイスデータと画像データとの間に相関が存在する場合、データ相関器230は、画像データとデバイスデータとを計算ユニット232に引き渡すように構成することができる。計算ユニット232は、第三者118が画像データに関連する画像内にキャプチャーされた確率を計算するように構成することができる。計算ユニット232は、デバイスデータと画像データとの間の相関の強さ、その画像がキャプチャーされた地域、およびその他の要因に限定されないが、それらなど、1つまたは複数の要因に基づいて、その確率を計算することが可能である。この確率が所定のしきい値を超える場合、計算ユニット232は、その画像が第三者118に関するプライバシーの問題を呈する可能性があることを示すように構成することができる。   If there is a correlation between the device data and the image data, the data correlator 230 can be configured to deliver the image data and the device data to the calculation unit 232. The calculation unit 232 can be configured to calculate the probability that the third party 118 was captured in an image associated with the image data. The calculation unit 232 determines the strength of the correlation between the device data and the image data, the region where the image was captured, and other factors, based on one or more factors such as, but not limited to, Probability can be calculated. If this probability exceeds a predetermined threshold, the calculation unit 232 may be configured to indicate that the image may present a privacy issue with respect to the third party 118.

いくつかの実施形態では、所定のしきい値は、画像共有ネットワーク110によって決定されてよい。その代わりに、または加えて、第三者118は、第三者118のプライバシー要望に従って、所定のしきい値を決定することが可能である。その代わりに、または加えて、画像キャプチャー当事者119は、画像キャプチャー当事者の119プライバシー要望に従って、所定のしきい値を決定することが可能である。いくつかの実施形態では、第三者118および/または画像キャプチャー当事者119は、通信回線250によって所定のプライバシーしきい値を送信するために、データ相関器230と通信することが可能である。2名以上の当事者が所定のしきい値を設定した場合、画像共有ネットワーク110は、最低値、最高値、平均値、中央値、またはそれらのいくつかのその他の変形を使用することが可能である。   In some embodiments, the predetermined threshold may be determined by the image sharing network 110. Alternatively or additionally, the third party 118 can determine the predetermined threshold according to the privacy requirements of the third party 118. Alternatively or additionally, the image capture party 119 can determine the predetermined threshold according to the image capture party's 119 privacy requirements. In some embodiments, the third party 118 and / or the image capture party 119 can communicate with the data correlator 230 to send a predetermined privacy threshold over the communication line 250. If more than one party sets a predetermined threshold, the image sharing network 110 can use the lowest value, highest value, average value, median value, or some other variation thereof. is there.

画像修正器234は、第三者がその画像データに関連する画像によってキャプチャーされた確率が所定のしきい値を超えた場合、その画像を修正するように構成することができる。いくつかの実施形態では、画像を修正する前に、画像修正器234は、その画像が第三者をキャプチャーした可能性があるという通知を画像キャプチャー当事者119に送信することが可能である。この通知は、画像キャプチャーデバイス130を介して、もしくは画像キャプチャー当事者119に関連するいくつかのその他の電子デバイスを介して、画像キャプチャー当事者119に、および/または電子デールアドレス、電話番号、もしくは画像キャプチャー当事者119に関連するその他のアドレスに送信することが可能である。この通知は、第三者がその画像によってキャプチャーされた可能性があることを画像キャプチャー当事者119が理解していることを表明するように、画像キャプチャー当事者119に要求することが可能であり、その画像を共有しないように画像キャプチャー当事者119に要求することが可能である。いくつかの実施形態では、画像修正器234は、その画像を修正し、次いで、その画像が第三者の画像をキャプチャーした可能性があるため、その画像が修正されたという通知を画像キャプチャー当事者119に送信することが可能である。   The image modifier 234 can be configured to modify the image if the probability that a third party has been captured by the image associated with the image data exceeds a predetermined threshold. In some embodiments, before modifying the image, the image modifier 234 can send a notification to the image capture party 119 that the image may have captured a third party. This notification may be sent to the image capture party 119 via the image capture device 130 or via some other electronic device associated with the image capture party 119 and / or an electronic dale address, phone number, or image capture. It can be sent to other addresses associated with party 119. This notice may request image capture party 119 to state that image capture party 119 understands that a third party may have been captured by the image, It is possible to request the image capture party 119 not to share the image. In some embodiments, the image modifier 234 modifies the image and then notifies the image capture party that the image has been modified because the image may have captured a third party image. 119 can be transmitted.

いくつかの実施形態では、画像修正器234は、画像記憶装置270内の画像にアクセスして、その画像内の顔のすべてまたはいくつかを不明瞭にすることによってその画像を修正するように構成することができる。いくつかの実施形態では、その画像の顔は、モザイク処理を実行することによって不明瞭にすることができる。いくつかの実施形態では、画像修正器234は、画像記憶装置270内の画像にアクセスして、その画像の公の表示を防止するために、その画像内の顔を除去することによって、またはその画像をプライベートとしてラベリングすることによって、その画像を修正することが可能である。   In some embodiments, the image modifier 234 is configured to access the image in the image store 270 and modify the image by obscuring all or some of the faces in the image. can do. In some embodiments, the face of the image can be obscured by performing mosaic processing. In some embodiments, the image modifier 234 accesses the image in the image storage device 270 and removes the face in the image to prevent public display of the image, or the It is possible to modify an image by labeling the image as private.

いくつかの実施形態では、画像修正器234は、第三者118の顔を不明瞭にするかまたは除去することだけが可能である。第三者118は、通信回線250によって第三者118の顔の画像を画像修正器234に提出することが可能である。画像修正器234は、第三者118によって提出された画像に基づいて、その画像内の第三者118の顔を識別して、第三者118の顔だけを不明瞭にするかまたは除去することが可能である。   In some embodiments, the image modifier 234 can only obscure or remove the face of the third party 118. The third party 118 can submit an image of the face of the third party 118 to the image modifier 234 via the communication line 250. The image corrector 234 identifies the third party's 118 face in the image based on the image submitted by the third party 118 and obscures or removes only the third party's 118 face. It is possible.

いくつかの実施形態では、画像が修正される様式は、その画像が第三者をキャプチャーした確率に依存し得る。例えば、いくつかの実施形態では、確率がより低い画像は、その画像の顔を不明瞭にすることによって修正可能であり、確率がより高い画像は、その画像をプライベートとしてマーキングして、その画像が共有されることを防止することによって修正可能である。いくつかの実施形態では、画像修正器234は、公に示すことが可能な画像の写しを修正することが可能である。元の画像は、未修正かつプライベートな状態で維持可能である。   In some embodiments, the manner in which an image is modified may depend on the probability that the image has captured a third party. For example, in some embodiments, an image with a lower probability can be corrected by obscuring the face of the image, and an image with a higher probability can mark the image as private and Can be corrected by preventing sharing. In some embodiments, the image modifier 234 can correct a copy of the image that can be publicly shown. The original image can be maintained in an unmodified and private state.

いくつかの実施形態では、画像共有ネットワーク110の様々なコンポーネントは、別のネットワーク上に配置されてよく、または別のデバイスと結合されてもよい。例えば、いくつかの実施形態では、画像記憶装置220は、画像共有ネットワーク110と通信する別のネットワークの一部であってよい。画像キャプチャーデバイス130は、画像および画像データを画像共有ネットワーク110内の画像解析器222に送信することが可能である。画像解析器222は、その画像を解析して、その画像を他のネットワーク上の画像記憶装置220に送信することが可能である。いくつかの実施形態では、画像キャプチャーデバイス130は、画像を他のネットワーク上の画像記憶装置220に直接送信して、解析のために、画像データを画像解析器222に送信することが可能である。別のネットワーク上の画像記憶装置220を有することは、画像共有サービスが画像共有を処理するリソースおよび第三者のプライバシー保守を処理するリソースを分割すること可能にできる。   In some embodiments, various components of the image sharing network 110 may be located on another network or combined with another device. For example, in some embodiments, the image storage device 220 may be part of another network that communicates with the image sharing network 110. The image capture device 130 can send images and image data to the image analyzer 222 in the image sharing network 110. The image analyzer 222 can analyze the image and transmit the image to the image storage device 220 on another network. In some embodiments, the image capture device 130 can send the image directly to the image storage device 220 on the other network and send the image data to the image analyzer 222 for analysis. . Having an image storage device 220 on a separate network may allow the image sharing service to partition resources that handle image sharing and resources that handle third party privacy maintenance.

別の例として、いくつかの実施形態では、画像キャプチャーデバイス130は、画像を維持して、画像データだけを画像解析器222に送信することが可能である。画像共有ネットワーク110がその画像が修正される必要があることを決定した場合、画像修正器234は、その画像を適切に修正するための要求を画像キャプチャーデバイス130に送信することが可能である。別の例として、いくつかの実施形態では、モバイルデバイス120は、デバイスデータ解析器212と解析データ記憶装置214とを含むことが可能である。モバイルデバイス120は、デバイスデータを画像データと相関させるために、解析データをデータ相関器230に直接的に送信することが可能である。   As another example, in some embodiments, the image capture device 130 can maintain an image and send only image data to the image analyzer 222. If the image sharing network 110 determines that the image needs to be modified, the image modifier 234 can send a request to the image capture device 130 to properly modify the image. As another example, in some embodiments, the mobile device 120 can include a device data analyzer 212 and an analysis data store 214. The mobile device 120 can send the analysis data directly to the data correlator 230 to correlate the device data with the image data.

別の例として、いくつかの実施形態では、画像共有ネットワーク110は、画像記憶装置220、データ相関器230、計算ユニット232、および画像修正器234だけを含むことが可能である。モバイルデバイス120は、デバイスデータ生成器122と、デバイスデータ解析器212と、解析データ記憶装置214とを含むことが可能である。画像キャプチャーデバイス130は、画像解析器222と解析画像データ記憶装置224とを含むことが可能である。画像共有ネットワーク110は、解析された画像データとデバイスデータとをそれぞれ画像キャプチャーデバイス130ならびモバイルデバイス120から受信して、その画像データとデバイスデータとを相関させて、必要に応じて、その画像を適切に修正することが可能である。   As another example, in some embodiments, image sharing network 110 may include only image storage device 220, data correlator 230, calculation unit 232, and image modifier 234. Mobile device 120 may include a device data generator 122, a device data analyzer 212, and an analysis data store 214. The image capture device 130 can include an image analyzer 222 and an analyzed image data storage device 224. The image sharing network 110 receives the analyzed image data and device data from the image capture device 130 and the mobile device 120, correlates the image data with the device data, and converts the image as necessary. It can be modified appropriately.

いくつかの実施形態では、デバイスデータ生成器122によって生成されたデバイスデータ、および画像データは解析されなくてよい。未加工のデバイスデータおよび画像データは、画像共有ネットワーク110によって受信されて、データ相関器230によって相関される。これらの実施形態およびその他の実施形態では、画像共有ネットワーク110は、デバイスデータ解析器212または画像解析器222を含まなくてもよい。当業者は、開示される実施形態の本質から逸脱せずに、図1および2に関して上で説明されたコンポーネントの様々なその他の構成および組合せが存在する可能性がある点を理解されよう。   In some embodiments, the device data generated by the device data generator 122 and the image data may not be analyzed. Raw device data and image data are received by the image sharing network 110 and correlated by the data correlator 230. In these and other embodiments, the image sharing network 110 may not include the device data analyzer 212 or the image analyzer 222. Those skilled in the art will appreciate that various other configurations and combinations of the components described above with respect to FIGS. 1 and 2 may exist without departing from the essence of the disclosed embodiments.

図3は、本明細書で開示される少なくともいくつかの実施形態に従って構成された、図1および2の画像管理システム100内で実施され得る方法300の1つの例示的な流れ図を示す。方法300は、ブロック302および/または304のうちの1つもしくは複数によって例示される様々な動作、機能、あるいは活動を含む。方法300は、ブロック302から開始することができる。   FIG. 3 illustrates one exemplary flow diagram of a method 300 that may be implemented within the image management system 100 of FIGS. 1 and 2 configured in accordance with at least some embodiments disclosed herein. Method 300 includes various operations, functions, or activities illustrated by one or more of blocks 302 and / or 304. Method 300 can begin at block 302.

ブロック302において、画像キャプチャーデバイス、例えば、図1および2に例示される画像キャプチャーデバイス130は、画像をキャプチャーすることが可能である。画像キャプチャーデバイスは、画像がどこでキャプチャーされたかを示す位置データ、画像がいつキャプチャーされたかを示す時間データ、およびその画像キャプチャーデバイスを所有もしくは操作する当事者、またはそうでない場合、その画像キャプチャーデバイスに関連する当事者を示す画像データを含むことが可能であるが、これらに限定されない画像データを生成することも可能である。いくつかの実施形態では、画像データは、その画像キャプチャーデバイスを所有もしくは操作する当事者、またはそうでない場合、その画像キャプチャーデバイスに関連する当事者によって入力可能である。いくつかの実施形態では、画像データは、画像から分離されてよく、または画像内に埋め込まれることも可能である。ブロック302の後にブロック304が続いてよい。   At block 302, an image capture device, such as the image capture device 130 illustrated in FIGS. 1 and 2, can capture the image. The image capture device is related to the location data that indicates where the image was captured, the time data that indicates when the image was captured, and the party that owns or operates the image capture device or, if not, the image capture device It is possible to include image data indicating a party who performs the process, but it is also possible to generate image data that is not limited thereto. In some embodiments, the image data can be input by the party that owns or operates the image capture device, or otherwise, the party associated with the image capture device. In some embodiments, the image data may be separated from the image or embedded within the image. Block 302 may be followed by block 304.

ブロック304において、画像キャプチャーデバイスは、画像データを図1および2に例示された画像共有ネットワーク110など、画像共有ネットワークに送信することが可能である。いくつかの実施形態では、画像キャプチャーデバイスは、画像を画像共有ネットワークに送信することも可能である。   At block 304, the image capture device may send the image data to an image sharing network, such as the image sharing network 110 illustrated in FIGS. In some embodiments, the image capture device may send the image to an image sharing network.

当業者は、本明細書で開示されるこのプロセスおよび方法ならびにその他のプロセスおよび方法に関して、これらのプロセスおよび方法において実行される機能は、異なる順序で実施されてよい。さらに、概説されたステップおよび動作は、例としてだけ提供され、開示される実施形態の本質から逸脱せずに、これらのステップおよび動作のうちのいくつかは、オプションであってよく、組み合わされて、より少ないステップおよび動作を形成してよく、または追加のステップおよび動作に拡大されてもよい。   One skilled in the art may appreciate that the functions performed in these processes and methods may be performed in a different order with respect to this and other processes and methods disclosed herein. Further, the outlined steps and operations are provided as examples only, and some of these steps and operations may be optional and combined without departing from the essence of the disclosed embodiments. Fewer steps and actions may be formed, or expanded to additional steps and actions.

図4は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、図1および2の画像管理システム100内で実施され得る方法400の1つの例示的な流れ図を示す。方法400は、ブロック402および/またはブロック404のうちの1つもしくは複数によって例示されるような様々な動作、機能、または活動を含む。方法400は、ブロック402から開始することができる。   FIG. 4 illustrates one exemplary flow diagram of a method 400 that may be implemented within the image management system 100 of FIGS. 1 and 2 configured in accordance with at least some embodiments described herein. Method 400 includes various operations, functions, or activities as illustrated by one or more of block 402 and / or block 404. The method 400 can begin at block 402.

ブロック402において、モバイルデバイスは、そのモバイルデバイスに関するデバイスデータを生成することが可能である。モバイルデバイスは、例えば、図1および2で例示されたモバイルデバイス120を含むことが可能である。デバイスデータは、そのデバイスの現在の位置および/または過去の位置を示すことができる位置データ、ならびにそのデバイスがいつそれらの位置にあったかを示すことができる時間データを含むことが可能であるが、これらに限定されない。ブロック402の後にブロック404が続いてよい。   In block 402, the mobile device can generate device data for the mobile device. The mobile device can include, for example, the mobile device 120 illustrated in FIGS. Device data can include location data that can indicate the current location and / or past location of the device, and time data that can indicate when the device was at those locations, It is not limited to these. Block 402 may be followed by block 404.

ブロック404において、モバイルデバイスは、デバイスデータを図1および2に例示された画像共有ネットワーク110などの画像共有ネットワークに送信することが可能である。   At block 404, the mobile device can transmit device data to an image sharing network, such as the image sharing network 110 illustrated in FIGS.

図5は、本明細書で説明される少なくともいくつかの実施形態に従って構成された、図1および2の画像管理システム100内で実施され得る方法500の1つの例示的な流れ図を示す。方法500は、ブロック502、504、506、508、および/または510のうちの1つもしくは複数によって例示されるような様々な動作、機能、または活動を含むことが可能である。方法500は、ブロック502から開始することができる。   FIG. 5 illustrates one exemplary flow diagram of a method 500 that may be implemented within the image management system 100 of FIGS. 1 and 2 configured in accordance with at least some embodiments described herein. Method 500 may include various operations, functions, or activities as illustrated by one or more of blocks 502, 504, 506, 508, and / or 510. Method 500 can begin at block 502.

ブロック502において、画像共有ネットワークは、通信ネットワークを介して画像データを画像キャプチャーデバイスから受信することが可能である。画像キャプチャーデバイスは、例えば、図1および2の画像キャプチャーデバイス130を含むことが可能である。画像データは、画像がキャプチャーされた位置を示すことができる画像位置データを含むことが可能である。いくつかの実施形態では、画像は写真であってよい。いくつかの実施形態では、画像は、ビデオからの画像であってよい。いくつかの実施形態では、画像データは、その画像がいつキャプチャーされたかを示す時間データを含むことが可能である。ブロック502の後にブロック504が続いてよい。   In block 502, the image sharing network may receive image data from the image capture device via the communication network. The image capture device can include, for example, the image capture device 130 of FIGS. The image data can include image position data that can indicate the position at which the image was captured. In some embodiments, the image may be a photograph. In some embodiments, the image may be an image from a video. In some embodiments, the image data can include time data that indicates when the image was captured. Block 502 may be followed by block 504.

ブロック504において、画像共有ネットワークは、通信ネットワークを介して画像キャプチャーデバイスと別個のモバイルデバイスからデバイスデータを受信することが可能である。モバイルデバイスは、例えば、図1および2のモバイルデバイス120であってよく、かつ/または図1および2の第三者118など、第三者に関連付けられてよく、もしくは第三者によって所有されてもよい。デバイスデータは、モバイルデバイスの現在の位置および/または過去の位置を示すことができるデバイス位置データを含むことが可能である。いくつかの実施形態では、デバイスデータは、モバイルデバイスがいつデバイス位置データ内の位置にあったかを示すことができる時間データを含むことも可能である。ブロック504の後にブロック506が続いてよい。   At block 504, the image sharing network may receive device data from a mobile device that is separate from the image capture device via the communication network. The mobile device may be, for example, the mobile device 120 of FIGS. 1 and 2 and / or may be associated with or owned by a third party, such as the third party 118 of FIGS. Also good. The device data can include device location data that can indicate the current location and / or past location of the mobile device. In some embodiments, the device data can also include time data that can indicate when the mobile device was at a location in the device location data. Block 504 may be followed by block 506.

ブロック506において、画像データとデバイスデータとを相関させることが可能である。画像データおよびデバイスデータは、その画像が、そのデバイスが位置していたおおよその位置でキャプチャーされたかどうかを決定するために、デバイス位置データを画像位置データと比較することによって相関されることが可能である。いくつかの実施形態では、その画像が、そのデバイスがある位置にいたおおよその時間に同じ位置内でキャプチャーされたかどうかを決定するために、デバイス時間データを画像時間データと比較することによって、画像データおよびデバイスデータをさらに相関させることが可能である。画像データをデバイスデータと相関させるために、様々なアルゴリズムを使用することが可能である。ブロック506の後にブロック508が続いてよい。   At block 506, the image data and device data can be correlated. Image data and device data can be correlated by comparing the device position data with the image position data to determine if the image was captured at the approximate location where the device was located It is. In some embodiments, the image is obtained by comparing the device time data with the image time data to determine whether the image was captured in the same location at the approximate time that the device was at the location. Data and device data can be further correlated. Various algorithms can be used to correlate the image data with the device data. Block 506 may be followed by block 508.

ブロック508において、デバイスのユーザが画像キャプチャーデバイスによってキャプチャーされ得る画像内に出現する確率は、デバイスデータを画像データと相関させることに基づいて計算可能である。ブロック508の後にブロック510が続いてよい。   At block 508, the probability that the user of the device will appear in an image that can be captured by the image capture device can be calculated based on correlating the device data with the image data. Block 508 may be followed by block 510.

ブロック510において、モバイルデバイスのユーザがその画像内に出現する確率がしきい値を超える場合、その画像を修正することが可能である。このしきい値は、画像共有ネットワーク、モバイルデバイスの所有者、モバイルデバイスのユーザ、その画像の画像共有ネットワークへの提出者、またはそれらのいくつかの組合せによって事前に決定することができる。いくつかの実施形態では、画像共有サービスからその画像を除去することによって画像を修正することが可能である。その代わりに、または加えて、画像内の人物の顔を除去するかまたは不明瞭にすることによって、画像を修正することが可能である。その代わりに、または加えて、画像をその画像共有サービス内でプライベートに維持することによって、画像を修正することも可能である。   At block 510, if the probability that a mobile device user will appear in the image exceeds a threshold, the image can be modified. This threshold can be predetermined by the image sharing network, the owner of the mobile device, the user of the mobile device, the submitter of the image to the image sharing network, or some combination thereof. In some embodiments, the image can be modified by removing the image from the image sharing service. Alternatively or additionally, the image can be modified by removing or obscuring a person's face in the image. Alternatively or additionally, the image can be modified by keeping the image private within the image sharing service.

図5で概説されたステップおよび動作は、例としてだけ提供され、これらのステップおよび動作のうちのいくつかは、オプションであってよく、組み合わされてより少なくステップおよび動作を形成してよく、または追加のステップおよび動作に拡張されてもよい。例えば、いくつかの実施形態では、ブロック508によって表されたような、画像内にユーザが出現する確率を計算する動作は省略されてもよい。あるいは、いくつかの実施形態では、ブロック510によって表されたような、画像を修正する動作が省略されてもよい。   The steps and operations outlined in FIG. 5 are provided as examples only, and some of these steps and operations may be optional and combined to form fewer steps and operations, or Additional steps and operations may be extended. For example, in some embodiments, the act of calculating the probability that a user will appear in the image, as represented by block 508, may be omitted. Alternatively, in some embodiments, the operation of modifying the image, as represented by block 510, may be omitted.

その代わりに、または加えて、方法500は、モバイルデバイスのユーザが画像の撮影対象である場合を決定することをさらに含むことが可能である。この決定を行うことは、画像の提出者、およびその画像の提出者がそのモバイルデバイスのユーザに知られているかどうかを決定することを含むことも可能である。そのモバイルデバイスのユーザが画像の撮影対象である場合、その画像はそのモバイルデバイスのユーザのプライバシーを保護するために修正されなくてよい。この状況は、そのモバイルデバイスのユーザの友人または仲間がそのモバイルデバイスのユーザの承認を得て、そのモバイルデバイスのユーザの画像をキャプチャーするときに発生し得る。いくつかの実施形態では、画像の提出者がそのモバイルデバイスのユーザに知られているかどうかを決定することは、そのモバイルデバイスのユーザとその画像の提出者とがソーシャルメディアを介してネットワークで繋がっているかどうかを決定することを含むことが可能である。   Alternatively or additionally, the method 500 may further include determining when the user of the mobile device is taking an image. Making this determination can also include determining the submitter of the image and whether the submitter of the image is known to the user of the mobile device. If the user of the mobile device is the subject of the image, the image may not be modified to protect the privacy of the user of the mobile device. This situation may occur when a friend or associate of the user of the mobile device gets the user's approval of the mobile device and captures an image of the user of the mobile device. In some embodiments, determining whether an image submitter is known to a user of the mobile device includes networking the user of the mobile device and the image submitter via social media. It may be possible to include determining whether or not.

いくつかの実施形態では、画像共有ネットワークは、断続的にデバイスデータを受信することが可能である。いくつかの実施形態では、デバイスデータは、断続的なデバイス位置だけを提供することが可能である。結果として、断続的な位置データ間の時間間隔の間のデバイスのおおよその位置は、デバイスデータから利用可能でない場合がある。それに応じて、モバイルデバイスの位置をモバイルデバイスから受信されたデバイス位置データに基づいて補間することが可能である。モバイルデバイスの位置を補間することは、デバイスデータによって提供されたモバイルデバイスの2つの位置の間の経路を補間することを含むことが可能である。この経路は、道路情報またはその他の情報を使用することによって補間することができる。   In some embodiments, the image sharing network can intermittently receive device data. In some embodiments, the device data may provide only intermittent device locations. As a result, the approximate location of the device during the time interval between intermittent location data may not be available from the device data. In response, the position of the mobile device can be interpolated based on device position data received from the mobile device. Interpolating the position of the mobile device can include interpolating a path between the two positions of the mobile device provided by the device data. This route can be interpolated by using road information or other information.

方法500の一例は以下のとおりである。ある人物は、その人物がその画像の撮影対象でないとき、自分の画像を公の画像共有サービス上に見出される画像内に表示させないことによって自らのプライバシーを保護することを望む場合がある。自らのプライバシーを保護するために、その人物は、自らの位置データを画像共有ネットワークに提供することが可能である。スマートフォンなど、その人物によって運ばれるモバイルデバイスは、その人物の位置を画像共有サービスに提供することが可能である。画像共有サービスは、その人物の位置データを記憶することが可能である。   An example of method 500 is as follows. A person may desire to protect his privacy by not displaying his image in an image found on a public image sharing service when that person is not the subject of the image. In order to protect his privacy, the person can provide his location data to the image sharing network. A mobile device carried by the person, such as a smartphone, can provide the position of the person to the image sharing service. The image sharing service can store the position data of the person.

画像共有ネットワークは、画像共有サービスのユーザによって撮影された画像を受信することも可能である。これらの画像は、その画像が撮影された場所、およびその画像が撮影されたときなどの、画像データを含むことが可能である。画像共有ネットワークは、画像データを記憶して、その人物が位置した場所において画像がキャプチャーされたかどうかを決定するために、画像データをその人物のモバイルデバイスからのデータと比較することが可能である。その人物が位置した場所でその画像が撮影された場合、その人物は、その画像内にキャプチャーされている可能性がある。画像共有ネットワークは、その人物がその画像内にキャプチャーされた確率が所定のしきい値を超えるかどうかを決定して、その画像を修正することが可能である。その人物のプライバシーが保護されるように、画像内のその人物の顔を不明瞭にすることによって、画像を修正することが可能である。   The image sharing network can also receive an image taken by a user of the image sharing service. These images can include image data such as where the image was taken and when the image was taken. The image sharing network can store the image data and compare the image data with data from the person's mobile device to determine if the image was captured at the location where the person was located. . If the image is taken at the location where the person is located, the person may be captured in the image. The image sharing network can modify the image by determining whether the probability that the person was captured in the image exceeds a predetermined threshold. The image can be modified by obscuring the person's face in the image so that the person's privacy is protected.

図6は、本明細書で説明された少なくともいくつかの実施形態に従って、キャプチャーされた画像を管理するように構成された1つの例示的なコンピューティングデバイス600を示すブロック図である。コンピューティングデバイス600は、モバイルデバイス120、および/もしくは画像キャプチャーデバイス130のうちのいずれか1つを含むことが可能であり、かつ/あるいは、例えば、図1もしくは2、または両方のデバイスデータ解析器212、画像解析器222、データ相関器230、計算ユニット232、または画像修正器234のうちのいずれか1つもしくは複数を含むことが可能である。非常に基本的な構成602では、コンピューティングデバイス600は、通常、1つまたは複数のプロセッサ604およびシステムメモリ606を含む。メモリバス608は、プロセッサ604とシステムメモリ606との間で通信するために使用可能である。   FIG. 6 is a block diagram illustrating one exemplary computing device 600 configured to manage captured images in accordance with at least some embodiments described herein. The computing device 600 can include any one of the mobile device 120 and / or the image capture device 130 and / or, for example, the device data analyzer of FIG. 1 or 2 or both. Any one or more of 212, image analyzer 222, data correlator 230, calculation unit 232, or image modifier 234 can be included. In a very basic configuration 602, the computing device 600 typically includes one or more processors 604 and system memory 606. Memory bus 608 can be used to communicate between processor 604 and system memory 606.

所望される構成に応じて、プロセッサ604は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、またはそれらの任意の組合せを含むが、これらに限定されない任意のタイプのものであってよい。プロセッサ604は、レベル1キャッシュ610およびレベル2キャッシュ612など、1つまたは複数のレベルのキャッシュと、プロセッサコア614と、レジスタ616とを含むことが可能である。例示的なプロセッサコア614は、論理演算装置(ALU)、浮動小数点演算装置(FPU)、デジタル信号処理コア(DSPコア)、またはそれらの任意の組合せを含むことが可能である。例示的なメモリコントローラ618は、プロセッサ604と共に使用することも可能であり、またはいくつかの実装形態では、メモリコントローラ618は、プロセッサ604の内部部品であってよい。   Depending on the desired configuration, processor 604 may be of any type including, but not limited to, a microprocessor (μP), a microcontroller (μC), a digital signal processor (DSP), or any combination thereof. It may be. The processor 604 can include one or more levels of cache, such as a level 1 cache 610 and a level 2 cache 612, a processor core 614, and a register 616. The example processor core 614 may include an arithmetic logic unit (ALU), a floating point unit (FPU), a digital signal processing core (DSP core), or any combination thereof. The example memory controller 618 can also be used with the processor 604, or in some implementations, the memory controller 618 can be an internal component of the processor 604.

所望される構成に応じて、システムメモリ606は、(RAMなど)揮発性メモリ、(ROM、フラッシュメモリなど)不揮発性メモリ、またはそれらの任意の組み合わせを含むが、これらに限定されない任意のタイプのものであってよい。システムメモリ606は、オペレーティングシステム(OS)620と、1つまたは複数のアプリケーション622と、プログラムデータ624とを含むことが可能である。アプリケーション622は、本明細書で説明されるように画像データとデバイスデータを相関させるように構成された相関アルゴリズムなど、決定アプリケーション626、または図3、4、および5の方法300、400、ならびに500に関して説明されたアルゴリズムを含めて、その他のアルゴリズムを含むことが可能である。アプリケーション622は、例えば、図2のデータ相関器230に対応し得る。プログラムデータ624は、デバイスデータなど、本明細書で説明されたように、デバイスのユーザが画像内にキャプチャーされた確率を計算するために有用であり得る決定データ628を含むことが可能である。いくつかの実施形態では、アプリケーション622は、図5の方法500において説明されたような画像共有ネットワークを管理する実装形態が本明細書で説明されるよう提供できるように、OS620上でプログラムデータ624と共に動作するように構成することができる。この説明された構成602は、図6において、内部破線内のコンポーネントによって例示される。   Depending on the desired configuration, the system memory 606 may include any type of volatile memory (such as RAM), non-volatile memory (such as ROM, flash memory, etc.), or any combination thereof. It may be a thing. The system memory 606 can include an operating system (OS) 620, one or more applications 622, and program data 624. Application 622 may be a decision application 626 such as a correlation algorithm configured to correlate image data and device data as described herein, or the methods 300, 400, and 500 of FIGS. Other algorithms can be included, including those described with respect to. Application 622 may correspond to, for example, data correlator 230 of FIG. Program data 624 may include decision data 628 that may be useful for calculating the probability that a user of the device was captured in an image, such as device data, as described herein. In some embodiments, application 622 may provide program data 624 on OS 620 such that an implementation for managing an image sharing network as described in method 500 of FIG. 5 may be provided as described herein. Can be configured to work with. This described configuration 602 is illustrated in FIG. 6 by components within an internal dashed line.

コンピューティングデバイス600は、基本構成602と任意の必要とされるデバイスおよびインターフェースとの間の通信を円滑にするために、追加の特徴または機能性、ならびに追加のインターフェースを有することが可能である。例えば、記憶インターフェースバス634を経由して基本構成602と1つまたは複数のデータ記憶装置632との間の通信を円滑にするためにバス/インターフェースコントローラ630を使用することが可能である。データ記憶装置632は、取外し可能記憶装置636、取外し不可能記憶装置638、またはそれらの組合せであって良い。取外し可能記憶装置および取外し不可能記憶装置の例は、ほんのいくつかの例を挙げれば、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)などの磁気ディスク装置、コンパクトディスク(CD)ドライブまたはデジタル多用途ディスク(DVD)ディスクなどの光ディスクドライブ、固体ドライブ(SSD)、およびテープドライブを含む。例示的なコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなど、情報を記憶するための任意の方法または技術の形で実施される揮発性媒体および不揮発性媒体、取外し可能媒体および取外し不可能媒体を含むことが可能である。   The computing device 600 may have additional features or functionality as well as additional interfaces to facilitate communication between the base configuration 602 and any required devices and interfaces. For example, the bus / interface controller 630 can be used to facilitate communication between the base configuration 602 and one or more data storage devices 632 via the storage interface bus 634. Data storage device 632 may be a removable storage device 636, a non-removable storage device 638, or a combination thereof. Examples of removable and non-removable storage devices include magnetic disk devices such as flexible disk drives and hard disk drives (HDDs), compact disk (CD) drives or digital versatile disks (to name just a few examples). Includes optical disk drives such as DVD) disks, solid state drives (SSD), and tape drives. Exemplary computer storage media include volatile and non-volatile media implemented in any method or technique for storing information, such as computer readable instructions, data structures, program modules, or other data. Possible media and non-removable media can be included.

システムメモリ606、取外し可能記憶装置636、および取外し不可能記憶装置638は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、所望される情報を記憶するために使用可能であり、コンピューティングデバイス600によってアクセス可能なRAM、ROM、EEPROM、フラッシュメモリもしくはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくはその他の光記憶装置、磁気カセット、磁気テープ、義気ディスク記憶装置もしくはその他の磁気記憶装置、または任意のその他の媒体を含むが、これらに限定されない。任意のそのようなコンピュータ記憶媒体は、コンピューティングデバイス600の一部であってよい。   System memory 606, removable storage 636, and non-removable storage 638 are examples of computer storage media. Computer storage media can be used to store desired information and can be accessed by computing device 600 such as RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disc ( DVD) or other optical storage device, magnetic cassette, magnetic tape, air conditioned disk storage device or other magnetic storage device, or any other medium. Any such computer storage media may be part of computing device 600.

コンピューティングデバイス600は、バス/インターフェースコントローラ630を経由して様々なインターフェースドライブ(例えば、出力デバイス642、周辺インターフェース644、および通信デバイス646)から基本構成602に対する通信を円滑にするためのインターフェースバス640を含むことも可能である。例示的な出力デバイス642は、1つまたは複数のA/Vポート652を経由して、ディスプレイまたはスピーカなど、様々な外部デバイスと通信するように構成され得るグラフィックス処理ユニット648および音声処理ユニット650を含む。例示的な周辺インターフェース644は、1つもしくは複数のI/Oポート658を経由して入力デバイス(例えば、キーボード、マウス、ペン、音声入力装置、タッチ入力装置など)またはその他の周辺デバイス(例えば、プリンタ、スキャナなど)など、外部デバイスと通信するように構成され得るシリアルインターフェースコントローラ654またはパラレルインターフェースコントローラ656を含む。例示的な通信デバイス646は、1つまたは複数の通信ポート664を経由してネットワーク通信リンクを介して1つまたは複数の他のコンピューティングデバイス662との通信を円滑にするように構成され得るネットワークコントローラ660を含む。   Computing device 600 facilitates communication to basic configuration 602 from various interface drives (eg, output device 642, peripheral interface 644, and communication device 646) via bus / interface controller 630. Can also be included. The exemplary output device 642 includes a graphics processing unit 648 and an audio processing unit 650 that may be configured to communicate with various external devices, such as a display or speakers, via one or more A / V ports 652. including. The exemplary peripheral interface 644 may include an input device (eg, keyboard, mouse, pen, voice input device, touch input device, etc.) or other peripheral device (eg, via one or more I / O ports 658). A serial interface controller 654 or a parallel interface controller 656 that may be configured to communicate with an external device, such as a printer, scanner, etc. Exemplary communication device 646 may be configured to facilitate communication with one or more other computing devices 662 via a network communication link via one or more communication ports 664. A controller 660 is included.

ネットワーク通信リンクは、通信媒体の一例であり得る。通信媒体は、通常、コンピュータ可読命令、データ構造、プログラムモジュール、または搬送波もしくはその他の移送機構など、変調データ信号内のその他のデータによって実施可能であり、任意の情報配信媒体を含むことが可能である。「変調データ信号」は、その特性セットのうちの1つもしくは複数を有する信号、または信号内の情報を符号化するように変更された信号であってよい。限定ではなく、例として、通信媒体は、有線ネットワークまたは直接配線接続など、有線媒体と、音響媒体、無線周波数(RF)媒体、マイクロ波媒体、赤外線(IR)媒体、およびその他の無線媒体など、無線媒体とを含むことが可能である。本明細書で使用される場合、コンピュータ可読媒体という用語は、記憶媒体と通信媒体の両方を含むことが可能である。   A network communication link may be an example of a communication medium. Communication media typically can be implemented by computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave or other transport mechanism, and may include any information delivery media. is there. A “modulated data signal” may be a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. By way of example, and not limitation, communication media includes wired and acoustic media, radio frequency (RF) media, microwave media, infrared (IR) media, and other wireless media such as a wired network or direct-wired connection. Wireless media can be included. As used herein, the term computer readable media can include both storage media and communication media.

コンピューティングデバイス600は、上記の機能のいずれかを含むセルフォン、携帯情報端末(PDA)、パーソナルメディアプレイヤデバイス、無線ウェブウォッチデバイス、パーソナルヘッドセットデバイス、特定用途向けデバイス、またはハイブリッドデバイスなど、スモールフォームファクタ(small−form factor)携帯(すなわち、モバイル)電子デバイスの一部として実施可能である。コンピューティングデバイス600は、ラップトップコンピュータ構成と非ラップトップコンピュータ構成の両方を含めて、パーソナルコンピュータとして実施することも可能である。   The computing device 600 can be a small form such as a cell phone, personal digital assistant (PDA), personal media player device, wireless webwatch device, personal headset device, application specific device, or hybrid device that includes any of the functions described above. It can be implemented as part of a small-form factor portable (ie, mobile) electronic device. The computing device 600 can also be implemented as a personal computer, including both laptop and non-laptop computer configurations.

本開示は、様々な態様の例示として意図される、本明細書で説明された特定の実施形態の点で限定されるべきではない。当業者に明らかになるように、その趣旨および範囲から逸脱せずに、多くの修正および改変を行うことが可能である。本明細書に列挙された方法および装置に加えて、本開示の範囲内の機能的に均等な方法および装置は、前述の説明から当業者に明らかになるであろう。そのような修正および改変は、添付の請求項の範囲に包含されることが意図される。本開示は、そのような請求項が権利を得る均等物の完全範囲と共に、添付の請求項の点でだけ限定されるべきである。本開示は、当然、変化し得る特定の方法、試薬、化合物構成または生体系に限定されない点を理解されたい。本明細書で使用される専門用語は、特定の実施形態を説明するためだけであり、限定的であることが意図されない点も理解されたい。   The present disclosure should not be limited in terms of the particular embodiments described herein, which are intended as illustrations of various aspects. Many modifications and variations can be made without departing from its spirit and scope, as will be apparent to those skilled in the art. In addition to the methods and apparatus listed herein, functionally equivalent methods and apparatuses within the scope of the present disclosure will be apparent to those skilled in the art from the foregoing description. Such modifications and variations are intended to be included within the scope of the appended claims. The present disclosure should be limited only in terms of the appended claims, along with the full scope of equivalents to which such claims are entitled. It should be understood that the present disclosure is, of course, not limited to specific methods, reagents, compound configurations or biological systems that may vary. It is also to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting.

本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。様々な単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。   For the use of substantially all plural and / or singular terms herein, those skilled in the art will recognize from the plural to the singular and / or singular as appropriate to the situation and / or application. You can convert from shape to plural. Various singular / plural permutations can be clearly described herein for ease of understanding.

通常、本明細書において、特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(例えば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。例えば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(例えば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(例えば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。例えば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。   In general, the terms used herein, particularly in the appended claims (eg, the body of the appended claims), are intended throughout as “open” terms. Will be understood by those skilled in the art (eg, the term “including” should be construed as “including but not limited to” and the term “having”). Should be interpreted as “having at least,” and the term “includes” should be interpreted as “including but not limited to”. ,Such). Where a specific number of statements is intended in the claims to be introduced, such intentions will be explicitly stated in the claims, and in the absence of such statements, such intentions It will be further appreciated by those skilled in the art that is not present. For example, as an aid to understanding, the appended claims use the introductory phrases “at least one” and “one or more” to guide the claims. May include that. However, the use of such phrases may be used even if the same claim contains indefinite articles such as the introductory phrases “one or more” or “at least one” and “a” or “an”. Embodiments in which the introduction of a claim statement by the indefinite article "a" or "an" includes any particular claim, including the claim description so introduced, is merely one such description. (Eg, “a” and / or “an” should be construed to mean “at least one” or “one or more”). Should be). The same applies to the use of definite articles used to introduce claim recitations. Further, even if a specific number is explicitly stated in the description of the claim to be introduced, it should be understood that such a description should be interpreted to mean at least the number stated. (For example, the mere description of “two descriptions” without other modifiers means at least two descriptions, or two or more descriptions). Further, in cases where a conventional expression similar to “at least one of A, B and C, etc.” is used, such syntax usually means that one skilled in the art would understand the conventional expression. Contemplated (eg, “a system having at least one of A, B, and C” includes A only, B only, C only, A and B together, A and C together, B and C together And / or systems having both A, B, and C together, etc.). In cases where a customary expression similar to “at least one of A, B, or C, etc.” is used, such syntax is usually intended in the sense that one skilled in the art would understand the customary expression. (Eg, “a system having at least one of A, B, or C” includes A only, B only, C only, A and B together, A and C together, B and C together, And / or systems having both A, B, and C together, etc.). Any disjunctive word and / or phrase that presents two or more alternative terms may be either one of the terms, anywhere in the specification, claims, or drawings. It will be further understood by those skilled in the art that it should be understood that the possibility of including either of the terms (both terms), or both of them. For example, it will be understood that the phrase “A or B” includes the possibilities of “A” or “B” or “A and B”.

加えて、本開示の特徴または態様がマーカッシュグループを用いて説明される場合、当業者は、それによって、本開示は、マーカッシュグループの任意の個々の要素または要素のサブグループを用いてやはり説明される点を認識されよう。   In addition, if a feature or aspect of the present disclosure is described using a Markush group, one of ordinary skill in the art will thereby be able to describe the present disclosure using any individual element or subgroup of elements. You will recognize the point.

当業者によって理解されるように、明細書を提供することに関してなど、任意の目的またはすべての目的で、本明細書で開示されたすべての範囲は、任意の考えられる部分的範囲およびすべての考えられる部分的範囲、ならびにその部分的範囲の組合せも包含する。任意の列挙された範囲は、同じ範囲が少なくとも同じ半分、1/3、1/4、1/5、1/10などに分解されていることを十分に説明し、これを可能にするとして容易に認識されよう。非限定的な例として、本明細書で説明されるそれぞれの範囲は、下1/3、中1/3、および上1/3などに容易に分解可能である。やはり当業者によって容易に理解されるように、「最大で」、「少なくとも」など、すべての語は、列挙された数を含み、上で議論されたように、後で部分的範囲に分解され得る範囲を指す。最終的に、当業者によって理解されるように、範囲は、それぞれの個々の要素を含む。したがって、例えば、1〜3個のセルを有するグループは、1個のセルを有するグループ、2個のセルを有するグループ、または3個のセルを有するグループを指す。同様に、1〜5個のセルを有するグループは、1個のセルを有するグループ、2個のセルを有するグループ、3個のセルを有するグループ、4個のセルを有するグループ、または5個のセルを有するグループを指し、以下同様である。   As understood by one of ordinary skill in the art, all ranges disclosed herein for any purpose or for any purpose, such as with respect to providing the specification, are intended to cover any conceivable subrange and all ideas. As well as combinations of the subranges as well as combinations of the subranges. Any listed range is easy to explain, making it possible enough to fully explain that the same range is broken down into at least the same half, 1/3, 1/4, 1/5, 1/10, etc. Will be recognized. As a non-limiting example, each range described herein can be easily decomposed into lower 1/3, middle 1/3, upper 1/3, and so forth. As will also be readily understood by those skilled in the art, all terms such as “at most”, “at least”, etc. include the recited numbers and are later broken down into partial ranges as discussed above. Refers to the range to obtain. Ultimately, the range includes each individual element, as will be appreciated by those skilled in the art. Thus, for example, a group having 1-3 cells refers to a group having 1 cell, a group having 2 cells, or a group having 3 cells. Similarly, a group having 1 to 5 cells is a group having 1 cell, a group having 2 cells, a group having 3 cells, a group having 4 cells, or 5 groups. A group having cells, and so on.

前述の説明から、本開示の様々な実施形態は、本明細書において、例示のために説明されており、本開示の範囲および趣旨から逸脱せずに、様々な修正を行うことが可能である点を理解されよう。したがって、本明細書で開示された様々な実施形態は、限定的であることが意図されず、真の範囲および趣旨と共に、以下の請求項によって表示されている。   From the foregoing description, various embodiments of the present disclosure have been described herein for purposes of illustration, and various modifications can be made without departing from the scope and spirit of the present disclosure. Let's understand the point. Accordingly, the various embodiments disclosed herein are not intended to be limiting, but are represented by the following claims, along with their true scope and spirit.

Claims (17)

キャプチャーされた画像を管理するための方法であって、
画像共有ネットワークにおいて画像送信デバイスから画像データを受信することであって、前記画像データは、第1のユーザによりキャプチャーされ、前記画像データは、画像がどこでキャプチャーされたかに関する画像位置データを含む、受信することと、
デバイスデータを画像共有ネットワークにおいて第2のユーザのデバイスから受信することであって、前記デバイスデータは、デバイス位置データを含む、受信することと、
前記デバイスデータを前記画像データと相関させることと、
前記デバイスデータが前記画像データと相関していることに応答して、前記第2のユーザが前記画像に出現する確率を前記デバイスデータと前記画像データとの相関に基づいて計算することと、
前記第2のユーザが前記画像に出現する確率が第1の閾値より大きいことに応答して、前記画像をプライベートとしてマーキングすることと、
前記第2のユーザが前記画像に出現する確率が第2の閾値より大きく且つ前記第1の閾値以下であることに応答して、前記画像の部分を不明瞭にすることによって前記画像を修正することと、
を含む方法。
A method for managing captured images, comprising:
Receiving image data from an image transmitting device in an image sharing network, wherein the image data is captured by a first user and the image data includes image position data regarding where the image was captured; To do
Receiving device data from a second user's device in an image sharing network, wherein the device data includes device location data;
Correlating the device data with the image data;
Responsive to the device data being correlated with the image data, calculating a probability that the second user will appear in the image based on a correlation between the device data and the image data;
Marking the image as private in response to the probability that the second user will appear in the image is greater than a first threshold;
Responsive to the probability that the second user will appear in the image is greater than a second threshold and less than or equal to the first threshold, modifying the image by obscuring portions of the image And
Including methods.
前記画像が写真またはビデオの画像を含む、請求項1に記載の方法。   The method of claim 1, wherein the image comprises a photographic or video image. 前記画像を修正することが、前記画像内の前記第2のユーザの顔を除去することまたは不明瞭にすることを含む、請求項1に記載の方法。   The method of claim 1, wherein modifying the image comprises removing or obscuring the second user's face in the image. 前記画像データを送信する前記画像送信デバイスに通知を送信することをさらに含み、前記通知が、前記画像が修正されたことを示す、請求項3に記載の方法。   The method of claim 3, further comprising sending a notification to the image sending device that sends the image data, wherein the notification indicates that the image has been modified. 前記デバイスデータを前記画像データと相関させることが、
前記デバイス位置データを前記画像位置データと比較することと、
デバイス時間データを画像時間データと比較することとを含み、
前記デバイス時間データが、前記デバイス位置データがいつ収集されたかを表し、
前記画像時間データが、前記画像がいつキャプチャーされたかを表す、請求項1に記載の方法。
Correlating the device data with the image data;
Comparing the device position data with the image position data;
Comparing the device time data with the image time data,
The device time data represents when the device location data was collected;
The method of claim 1, wherein the image time data represents when the image was captured.
前記画像の提出者を決定すること、および前記画像の前記提出者が前記デバイスの前記第2のユーザに知られていることを決定することによって、前記デバイスの前記第2のユーザが前記画像の撮影対象であることを決定することをさらに含む、請求項1に記載の方法。   By determining the submitter of the image and determining that the submitter of the image is known to the second user of the device, the second user of the device The method according to claim 1, further comprising determining that the subject is a photographing object. 前記画像の前記提出者が前記デバイスの前記第2のユーザに知られていることを決定することが、前記デバイスの前記第2のユーザと前記画像の前記提出者とがソーシャルメディアを介してネットワークで繋がっていることを決定することを含む、請求項6に記載の方法。   Determining that the submitter of the image is known to the second user of the device means that the second user of the device and the submitter of the image are networked via social media 7. The method of claim 6, comprising determining that 前記デバイスがモバイル通信デバイスである、請求項1に記載の方法。   The method of claim 1, wherein the device is a mobile communication device. 画像共有ネットワークにおいて前記画像を受信することをさらに含み、前記画像を修正することが、前記画像が前記画像共有ネットワークにおいて受信された後で発生する、請求項1に記載の方法。   The method of claim 1, further comprising receiving the image at an image sharing network, wherein modifying the image occurs after the image is received at the image sharing network. 前記画像をプライベートとしてマーキングすることが、前記画像を前記画像共有ネットワーク内でプライベートに維持することを含む、請求項1に記載の方法。   The method of claim 1, wherein marking the image as private includes maintaining the image private in the image sharing network. キャプチャーされた画像を管理するためのシステムであって、
画像データをデバイスデータと相関させるように構成されたデータ相関器であって、前記画像データが、画像が第1のユーザによりどこでキャプチャーされたかに関する画像位置データを含み、前記デバイスデータが、第2のユーザのデバイスの位置に関するデバイス位置データを含む、データ相関器と、
前記デバイスデータが前記画像データと相関していることに応答して、前記第2のユーザが前記画像に出現する確率を前記デバイスデータと前記画像データとの相関に基づいて計算し、前記第2のユーザが前記画像に出現する確率が第1の閾値より大きいことに応答して、前記画像をプライベートとしてマーキングし、前記第2のユーザが前記画像に出現する確率が第2の閾値より大きく且つ前記第1の閾値以下であることに応答して、前記画像の部分を不明瞭にすることによって前記画像を修正するように構成された画像修正器と、
を備えるシステム。
A system for managing captured images,
A data correlator configured to correlate image data with device data, wherein the image data includes image position data regarding where the image was captured by a first user, and the device data includes a second A data correlator including device position data relating to the position of the user's device;
In response to the device data being correlated with the image data, a probability that the second user appears in the image is calculated based on a correlation between the device data and the image data, and the second data In response to the probability that the user of the image appears in the image is greater than a first threshold, the image is marked as private, and the probability that the second user appears in the image is greater than the second threshold and An image modifier configured to modify the image by obscuring a portion of the image in response to being less than or equal to the first threshold;
A system comprising:
前記画像が写真またはビデオの画像を含む、請求項11に記載のシステム。   The system of claim 11, wherein the image comprises a photographic or video image. 前記画像修正器が、前記画像内の第2のユーザの顔を除去することまたは不明瞭にすることによって、前記画像を修正するように構成された、請求項11に記載のシステム。   The system of claim 11, wherein the image modifier is configured to modify the image by removing or obscuring a second user's face in the image. 前記データ相関器が、前記画像位置データをデバイス位置データと相関させるように構成され、
デバイス時間データを画像時間データと相関させるようにさらに構成され、
前記デバイス時間データが、前記デバイス位置データがいつ収集されたかを表し、
前記画像時間データが、前記画像がいつキャプチャーされたかを表す、請求項11に記載のシステム。
The data correlator is configured to correlate the image position data with device position data;
Further configured to correlate device time data with image time data;
The device time data represents when the device location data was collected;
The system of claim 11, wherein the image time data represents when the image was captured.
前記データ相関器が、前記画像の提出者が前記デバイスの第2のユーザに知られている場合を決定するように構成された、請求項11に記載のシステム。   The system of claim 11, wherein the data correlator is configured to determine when the submitter of the image is known to a second user of the device. 前記データ相関器が、前記画像の前記提出者が前記デバイスの前記第2のユーザに知られていることを決定するために、ソーシャルメディアからのデータを使用するように構成された、請求項15に記載のシステム。   16. The data correlator is configured to use data from social media to determine that the submitter of the image is known to the second user of the device. The system described in. 前記画像修正器が、前記画像を画像共有ネットワーク内でプライベートとして分類することによって、前記画像をプライベートとしてマーキングするように構成された、請求項11に記載のシステム The system of claim 11, wherein the image modifier is configured to mark the image as private by classifying the image as private in an image sharing network.
JP2015029290A 2015-02-18 2015-02-18 Automatic privacy management for image sharing networks Expired - Fee Related JP6067041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015029290A JP6067041B2 (en) 2015-02-18 2015-02-18 Automatic privacy management for image sharing networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015029290A JP6067041B2 (en) 2015-02-18 2015-02-18 Automatic privacy management for image sharing networks

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013549423A Division JP2014512710A (en) 2011-12-16 2011-12-16 Automatic privacy management for image sharing networks

Publications (2)

Publication Number Publication Date
JP2015143995A JP2015143995A (en) 2015-08-06
JP6067041B2 true JP6067041B2 (en) 2017-01-25

Family

ID=53888960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015029290A Expired - Fee Related JP6067041B2 (en) 2015-02-18 2015-02-18 Automatic privacy management for image sharing networks

Country Status (1)

Country Link
JP (1) JP6067041B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326192A (en) * 2003-04-21 2004-11-18 Sony Corp Image management system, image management method, and computer program
JP2005130463A (en) * 2003-09-29 2005-05-19 Fuji Photo Film Co Ltd Imaging device and imaging system
JP4206888B2 (en) * 2003-09-30 2009-01-14 カシオ計算機株式会社 Image processing apparatus and program
US7797740B2 (en) * 2006-01-06 2010-09-14 Nokia Corporation System and method for managing captured content
JP2009265885A (en) * 2008-04-24 2009-11-12 Canon Inc Online album system and program
JP5348682B2 (en) * 2008-11-17 2013-11-20 Necビッグローブ株式会社 Image management apparatus, control method thereof, and program
JP5477017B2 (en) * 2010-01-26 2014-04-23 ソニー株式会社 Electronic device, content transmission method and program
JP5489340B2 (en) * 2010-03-12 2014-05-14 パナソニック株式会社 Face masking apparatus and method

Also Published As

Publication number Publication date
JP2015143995A (en) 2015-08-06

Similar Documents

Publication Publication Date Title
JP2014512710A (en) Automatic privacy management for image sharing networks
US9646026B2 (en) Determining points of interest using intelligent agents and semantic data
US20160232873A1 (en) Photo selection for mobile devices
US10311090B2 (en) Polygon-based indexing of places
WO2017107672A1 (en) Information processing method and apparatus, and apparatus for information processing
US11798137B2 (en) Systems and methods for media privacy
KR20150070358A (en) Method relating to presence granularity with augmented reality
TWI591575B (en) Method and system for enhancing captured data
US10657361B2 (en) System to enforce privacy in images on an ad-hoc basis
US20170192965A1 (en) Method and apparatus for smart album generation
US20220109719A1 (en) Information sharing method and apparatus
US20120150881A1 (en) Cloud-hosted multi-media application server
WO2016011763A1 (en) Image presentation method, apparatus and device, and nonvolatile computer storage medium
JP6067041B2 (en) Automatic privacy management for image sharing networks
US9916473B2 (en) Privacy protection for a life-log system
JP2015119337A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161220

R150 Certificate of patent or registration of utility model

Ref document number: 6067041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees