JP2011155385A - Electronic device, content transmission method, and program - Google Patents

Electronic device, content transmission method, and program Download PDF

Info

Publication number
JP2011155385A
JP2011155385A JP2010014511A JP2010014511A JP2011155385A JP 2011155385 A JP2011155385 A JP 2011155385A JP 2010014511 A JP2010014511 A JP 2010014511A JP 2010014511 A JP2010014511 A JP 2010014511A JP 2011155385 A JP2011155385 A JP 2011155385A
Authority
JP
Japan
Prior art keywords
person
information
content
share
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010014511A
Other languages
Japanese (ja)
Other versions
JP5477017B2 (en
Inventor
Takenori Sugigami
雄紀 杉上
Osamu Ashida
理 芦田
Kazuhito Sumiyoshi
一仁 住吉
Hiroko Hirozawa
弘子 廣澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010014511A priority Critical patent/JP5477017B2/en
Publication of JP2011155385A publication Critical patent/JP2011155385A/en
Application granted granted Critical
Publication of JP5477017B2 publication Critical patent/JP5477017B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Facsimiles In General (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately determine and present other users to share contents without making a user perform troublesome work. <P>SOLUTION: A PC 100 extracts a face image from digital photo images inside a storage section 108, generates a registered person list for the respective face images, also generates a human relation meta DB, calculates a share candidate point for a person in the registered person list on the basis of the temporal and distance closeness of the selected photo and the other photos, relation strength in the human relation meta DB and a past photo share history for the photo selected from a photo list by a user, displays information related to a person of whom the share candidate point is equal to or higher than a first value as a share candidate, and displays the person of whom the share candidate point is equal to or higher than the second value by setting the check box to be ON. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタル写真画像等のコンテンツまたはそのURL等のメタデータを他の装置に送信して、当該コンテンツを当該他の装置のユーザに共有させることが可能な電子機器、当該電子機器におけるコンテンツ送信方法及びプログラムに関する。   The present invention relates to an electronic device capable of transmitting content such as a digital photograph image or metadata such as a URL thereof to another device and allowing the user of the other device to share the content, and the content in the electronic device The present invention relates to a transmission method and a program.

従来から、あるユーザのコンテンツを他のユーザと共有させるための技術が存在する。   Conventionally, there is a technique for sharing content of a certain user with other users.

例えば下記特許文献1には、特定のユーザの顔画像や声紋パターン等の本人識別情報がユーザIDとともに予めサーバに登録され、さらに、登録されたユーザに対して、その友人、家族など、複数のメンバがグループIDにより関連付けられてサーバに登録され、所定位置に配置されたカメラ等のセンサ装置から出力された画像データ等の情報がユーザIDとともにサーバにより収集され、当該情報のうち本人識別情報に対応する情報が検出された場合、サーバにより、当該情報が、当該本人識別情報に対応するユーザIDに関連付けられたグループIDに属するユーザに配信されるシステムが開示されている。   For example, in the following Patent Document 1, personal identification information such as a face image or voiceprint pattern of a specific user is registered in advance with a user ID together with a user ID. The member is associated with the group ID and registered in the server, and information such as image data output from a sensor device such as a camera arranged at a predetermined position is collected by the server together with the user ID. A system is disclosed in which, when corresponding information is detected, the server distributes the information to users belonging to the group ID associated with the user ID corresponding to the identification information.

特開2008−198135号公報JP 2008-198135 A

しかしながら、上記特許文献1に記載の技術では、あるユーザのコンテンツを他のユーザと共有させるためには、ユーザの装置のみならず、サーバを用いた大掛かりなシステムが必要となる。しかも、当該システムでは、予め他のユーザをグループとしてサーバに登録するための煩雑な作業が必要となる。さらに、当該システムでは、情報の配信先は予めサーバに登録されたグループにより管理されるため、当該グループに属していないユーザにも情報を共有させたい事情が発生した場合に即座に対応することができない。   However, in the technique described in Patent Document 1, in order to share a user's content with other users, not only the user's device but also a large-scale system using a server is required. In addition, this system requires a complicated operation for registering other users as groups in the server in advance. Furthermore, in this system, the distribution destination of information is managed by a group registered in the server in advance, so that it is possible to respond immediately when there is a situation where it is desired to share information with a user who does not belong to the group. Can not.

以上のような事情に鑑み、本発明の目的は、コンテンツを共有させるべき他のユーザを、ユーザに煩雑な作業を行わせることなく適切に判断して提示することが可能な電子機器、コンテンツ送信方法及びプログラムを提供することにある。   In view of the circumstances as described above, an object of the present invention is to provide an electronic device and content transmission capable of appropriately determining and presenting other users who should share content without causing the user to perform complicated operations. It is to provide a method and a program.

上記目的を達成するため、本発明の一形態に係る電子機器は、記憶部と、通信部と、操作入力部と、制御部と、出力部とを有する。上記記憶部は、人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報を記憶する。上記通信部は、上記複数のコンテンツのうち少なくとも1つを、上記人物情報に対応する少なくとも1人の人物に関連する装置へ送信する。または当該通信部は、当該コンテンツをネットワーク上の記憶装置へ送信し、かつ、当該記憶装置上の当該コンテンツの所在場所情報を上記人物に関連する装置へ送信する。上記操作入力部は、上記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力を受け付ける。上記制御部は、上記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる上記識別情報を認識し、上記所定の関係の強度に応じて、当該認識された識別情報により識別され上記人物情報に含まれる各人物のポイントを算出する。上記出力部は、所定の閾値以上の上記ポイントを有する人物の上記人物情報を、当該人物に関連する上記装置へ上記選択されたコンテンツまたは当該選択されたコンテンツの前記所在場所情報を送信するための送信先候補として表示させるために出力する。   In order to achieve the above object, an electronic device according to an embodiment of the present invention includes a storage unit, a communication unit, an operation input unit, a control unit, and an output unit. The storage unit stores a plurality of pieces of content including identification information for identifying a person, and person information regarding the plurality of persons including at least the identification information and a person name corresponding to the identification information. The communication unit transmits at least one of the plurality of contents to an apparatus related to at least one person corresponding to the person information. Alternatively, the communication unit transmits the content to a storage device on the network, and transmits location information of the content on the storage device to a device related to the person. The operation input unit receives an input of a user operation for selecting at least one content from the plurality of contents. The control unit recognizes the identification information included in other content having a predetermined relationship with the selected content, and is identified by the recognized identification information according to the strength of the predetermined relationship. The points of each person included in the information are calculated. The output unit is configured to transmit the personal information of a person having the point equal to or greater than a predetermined threshold to the selected device or the location information of the selected content to the device related to the person. Output for display as a destination candidate.

これにより電子機器は、各人物について算出されたポイントを基に、ユーザにより選択されたコンテンツの送信(共有)先候補を自動的に抽出してユーザに提示することができる。したがってユーザは各コンテンツを誰と共有すべきかについて思い悩むことなく当該コンテンツを他人へ容易に共有させることができる。ここで電子機器とは、例えばPC、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機、携帯型AV(Audio/Visual)機器、記録再生装置、テレビジョン装置、デジタルボイスレコーダ等、コンテンツを記憶可能なあらゆる電子機器である。またコンテンツとは、静止画像データ(デジタル写真画像データ)、動画像データ、音声データ等である。上記ネットワークはLANやインターネット等、いかなるネットワークでもよい。記憶装置は例えばサーバであり、さらには当該サーバ上のオンラインアルバム等である。所在場所情報とは、例えばURLやファイルパス等である。   As a result, the electronic device can automatically extract a transmission destination (share) destination candidate selected by the user based on the points calculated for each person and present it to the user. Therefore, the user can easily share the content with others without worrying about who should share each content. Here, the electronic devices are all capable of storing content such as PCs, digital still cameras, digital video cameras, mobile phones, portable AV (Audio / Visual) devices, recording / playback devices, television devices, digital voice recorders, and the like. It is an electronic device. The content is still image data (digital photograph image data), moving image data, audio data, and the like. The network may be any network such as a LAN or the Internet. The storage device is, for example, a server, and further an online album on the server. The location information is, for example, a URL or a file path.

上記制御部は、上記送信先候補としての上記人物情報とともに、上記選択されたコンテンツの送信の可否を、上記操作入力部を介して選択させるチェックボックスを表示させてもよい。この場合制御部は、上記第1の値よりも大きい第2の値以上の上記ポイントを有する人物の上記人物情報とともに表示される上記チェックボックスを、上記送信が許可された状態で表示させてもよい。   The control unit may display a check box for selecting whether or not the selected content can be transmitted via the operation input unit together with the person information as the transmission destination candidate. In this case, the control unit may display the check box displayed together with the person information of the person having the point equal to or larger than the second value larger than the first value in a state where the transmission is permitted. Good.

これにより電子機器は、送信先候補のうち、第2の値以上のポイントを有する人物についてはチェックボックスをONにして表示することができるため、ユーザは何の操作を行わなくとも、送信先候補の中で特にポイントが高い人物については、コンテンツが自動的に送信されるように設定することができる。   As a result, the electronic device can display a person having a point greater than or equal to the second value among the transmission destination candidates with the check box turned on, so that the user can perform the transmission destination candidate without performing any operation. Of these, the person who has a particularly high point can be set so that the content is automatically transmitted.

上記記憶部は、上記人物情報に含まれる人物間の関係の強度を示す人間関係情報を記憶してもよい。この場合上記制御部は、上記選択されたコンテンツに含まれる上記識別情報を認識し、上記人間関係情報を基に、当該識別情報により識別される人物と、上記人物情報に含まれる人物との関係の強度に応じて上記ポイントを算出してもよい。   The said memory | storage part may memorize | store the human relationship information which shows the intensity | strength of the relationship between the persons contained in the said personal information. In this case, the control unit recognizes the identification information included in the selected content, and based on the human relationship information, the relationship between the person identified by the identification information and the person included in the personal information You may calculate the said point according to the intensity | strength of.

これにより電子機器は、コンテンツに含まれる各人間の人間関係の強度に応じて、上記コンテンツの送信先候補を自動的に抽出してユーザに提示することができる。   As a result, the electronic device can automatically extract the transmission destination candidates for the content and present them to the user in accordance with the strength of the human relationship of each person included in the content.

上記人物関係情報は、各人物が他の人物に向かって有する興味を示す方向情報を有してもよい。この場合上記制御部は、上記関係の強度及び上記方向情報に応じて上記ポイントを算出してもよい。   The person relation information may include direction information indicating an interest that each person has toward other persons. In this case, the control unit may calculate the point according to the strength of the relationship and the direction information.

これにより電子機器は、コンテンツに含まれる識別情報により識別される人物と、その他の人物との間での互いの興味に関する方向情報を基に、例えば当該コンテンツに含まれる人物がコンテンツを共有させたい他の人物や、特定の人物が含まれるコンテンツを欲している人物を、送信先候補として抽出してユーザに提示することができる。   As a result, the electronic device wants the person included in the content to share the content, for example, based on the direction information regarding the mutual interest between the person identified by the identification information included in the content and the other person Another person or a person who wants content including a specific person can be extracted as a transmission destination candidate and presented to the user.

上記コンテンツは、撮影時間情報を有するデジタル写真画像であってもよく、上記識別情報は上記人物の顔画像であってもよい。この場合上記制御部は、選択されたデジタル写真画像が有する第1の撮影時間情報から所定時間内の第2の撮影時間情報を有する他のデジタル写真画像に含まれる上記顔画像を認識し、上記第1の撮影時間情報と上記第2の撮影時間情報との差に応じて上記ポイントを算出してもよい。   The content may be a digital photographic image having shooting time information, and the identification information may be a face image of the person. In this case, the control unit recognizes the face image included in another digital photo image having the second shooting time information within a predetermined time from the first shooting time information included in the selected digital photo image, and The point may be calculated according to a difference between the first shooting time information and the second shooting time information.

これにより電子機器は、選択された写真画像に写っていない人物でも、その写真画像と撮影時間が近い他の写真画像に写っている人物を送信先候補に加えることができる。ここで撮影時間が近い他の写真画像に写っている人物を送信先候補に加えるのは、そのような人物は選択された写真画像に写っている人物と一緒にいた可能性が高く、当該人物と同じく写真画像の共有を望んでいる可能性が高いからである。   As a result, the electronic device can add a person who appears in another photographic image whose shooting time is close to that of the photographic image, even if it is not shown in the selected photographic image, to the transmission destination candidate. Here, it is highly possible that such a person was present together with the person shown in the selected photo image because the person shown in the other photo image whose shooting time is near is added to the destination candidate. This is because there is a high possibility of wanting to share a photographic image.

またこれに代えて上記制御部は、選択されたデジタル写真画像の第1の撮影位置情報から所定距離内の第2の撮影位置情報を有する他のデジタル写真画像に含まれる上記顔画像を認識し、上記第1の撮影位置情報と上記第2の撮影位置情報との差に応じて上記ポイントを算出してもよい。   Alternatively, the control unit recognizes the face image included in another digital photo image having the second shooting position information within a predetermined distance from the first shooting position information of the selected digital photo image. The point may be calculated according to a difference between the first shooting position information and the second shooting position information.

これにより電子機器は、選択された写真画像に写っていない人物でも、その写真画像と撮影位置が近い他の写真画像に写っている人物を送信先候補に加えることができる。ここで撮影位置が近い他の写真画像に写っている人物を送信先候補に加えるのは、そのような人物は選択された写真画像に写っている人物と一緒にいた可能性が高く、当該人物と同じく写真画像の共有を望んでいる可能性が高いからである。   As a result, the electronic device can add a person who is not shown in the selected photographic image but is shown in another photographic image whose shooting position is close to that photographic image to the transmission destination candidates. Here, it is highly possible that such a person was present together with the person shown in the selected photographic image because the person shown in another photographic image with a close shooting position is added to the destination candidate. This is because there is a high possibility of wanting to share a photographic image.

上記記憶部は、上記送信先候補の表示に基づいて上記人物に関連する装置へ送信されたコンテンツに関する送信履歴情報を記憶してもよい。この場合上記制御部は、上記送信履歴情報を基に、上記送信されたコンテンツに含まれる第1の識別情報と、上記選択されたコンテンツに含まれる第2の識別情報とを比較し、当該第1の識別情報と上記第2の識別情報との間の適合度を算出し、当該適合度に応じて、上記コンテンツの送信先の装置に関連する人物の上記ポイントを算出してもよい。   The said memory | storage part may memorize | store the transmission history information regarding the content transmitted to the apparatus relevant to the said person based on the display of the said transmission destination candidate. In this case, the control unit compares the first identification information included in the transmitted content with the second identification information included in the selected content based on the transmission history information, and The degree of matching between one identification information and the second identification information may be calculated, and the point of the person related to the content destination device may be calculated according to the degree of matching.

これにより電子機器は、過去に送信したコンテンツに含まれる識別情報と選択されたコンテンツに含まれる識別情報との適合度が高い場合には、当該コンテンツの過去の送信先を、上記選択されたコンテンツの送信先候補として表示することができる。すなわち電子機器は、例えば特定の人物に送信した写真の被写体の多くが、今回送信しようとしている写真と共通している場合には、今回もその写真をその特定の人物へ送信すべきであることを自動的に判断してユーザに提示することができる。   As a result, when the degree of matching between the identification information included in the previously transmitted content and the identification information included in the selected content is high, the electronic device selects the past transmission destination of the content as the selected content. Can be displayed as transmission destination candidates. In other words, for example, when many of the subjects of a photo sent to a specific person share the same photo as the photo that is going to be sent this time, the electronic device should send that photo to that particular person again. Can be automatically determined and presented to the user.

上記人物関係情報は、各人物が他の人物に向かって有する興味を示す方向情報を有してもよい。この場合上記制御部は、上記関係の強度及び上記方向情報に応じて上記ポイントを算出してもよい。   The person relation information may include direction information indicating an interest that each person has toward other persons. In this case, the control unit may calculate the point according to the strength of the relationship and the direction information.

これにより電子機器は、コンテンツに含まれる識別情報により識別される人物と、その他の人物との間での互いの興味に関する方向情報を基に、例えば当該コンテンツに含まれる人物がコンテンツを共有させたい他の人物や、特定の人物が含まれるコンテンツを欲している人物を、送信先候補として抽出してユーザに提示することができる。   As a result, the electronic device wants the person included in the content to share the content, for example, based on the direction information regarding the mutual interest between the person identified by the identification information included in the content and the other person Another person or a person who wants content including a specific person can be extracted as a transmission destination candidate and presented to the user.

上記制御部は、上記コンテンツが上記記憶部に記憶される度に、当該コンテンツに含まれる識別情報を認識し、当該識別情報により識別される人物に関する上記人物情報を生成して上記記憶部に記憶してもよい。   The control unit recognizes the identification information included in the content every time the content is stored in the storage unit, generates the personal information related to the person identified by the identification information, and stores the personal information in the storage unit May be.

これにより電子機器は、ユーザが当該電子機器にコンテンツを取り込むたびに、それに含まれる人物について新たな人物情報を生成でき、その結果送信先候補の数を増やすことができる。   Thereby, whenever a user takes in contents to the electronic device, the electronic device can generate new person information for the person included in the electronic device, and as a result, the number of transmission destination candidates can be increased.

上記制御部は、上記コンテンツが上記記憶部に記憶される度に、当該コンテンツに含まれる識別情報を認識し、当該識別情報を仮人物情報として上記記憶部に記憶してもよい。また制御部は、上記仮人物情報について上記操作入力部により人物名の入力があった場合に当該仮人物情報を上記人物情報として更新してもよい。さらに制御部は、上記仮人物情報の記憶後の所定期間内に上記人物名の入力が無く、かつ、上記記憶部に記憶されたコンテンツに当該仮人物情報としての上記識別情報が含まれていない場合に、当該仮人物情報を削除してもよい。   The control unit may recognize the identification information included in the content every time the content is stored in the storage unit, and store the identification information in the storage unit as temporary person information. The control unit may update the temporary person information as the personal information when the operation input unit inputs a person name for the temporary person information. Further, the control unit does not input the person name within a predetermined period after storing the temporary person information, and the content stored in the storage unit does not include the identification information as the temporary person information. In this case, the temporary person information may be deleted.

これにより電子機器は、コンテンツに含まれる識別情報はとりあえず全て仮人物情報として記憶しながら、所定期間内に人物情報として更新されない仮人物情報を削除することで、ユーザが意識せずにコンテンツにたまたま含まれてしまった人物に関する人物情報が無駄に記憶されるのを防ぐことができる。   As a result, the electronic device temporarily stores all the identification information included in the content as temporary person information, and deletes temporary person information that is not updated as personal information within a predetermined period of time, so that the user can happen to the content without being aware of it. It is possible to prevent the person information relating to the included person from being stored in vain.

上記制御部は、上記送信先候補として表示された人物情報に対応する上記識別情報が上記選択されたコンテンツに含まれている場合に、上記人物情報とともに第1のマークを表示させてもよい。また当該制御部は、上記識別情報が上記選択されたコンテンツに含まれていない場合に、上記人物情報とともに、上記第1のマークとは異なる第2のマーク及び当該人物情報が上記送信先候補として表示されている理由を示す情報を表示させてもよい。   The control unit may display a first mark together with the person information when the identification information corresponding to the person information displayed as the transmission destination candidate is included in the selected content. In addition, when the identification information is not included in the selected content, the control unit includes a second mark different from the first mark and the person information as the transmission destination candidate together with the person information. Information indicating the reason for the display may be displayed.

これにより電子機器は、上記第1及び第2のマークにより、送信先候補が表示されている理由をユーザに容易に把握させ、送信先とするか否かの判断材料とさせることができる。   Thereby, the electronic device can make the user easily grasp the reason why the transmission destination candidate is displayed by using the first and second marks, and can be used as a determination material for determining whether or not to use the transmission destination candidate.

上記制御部は、上記人物が上記第1の値より大きい第3の値以上のポイントを有する場合、上記選択されたコンテンツを当該人物に関連する装置へ送信してもよい。また上記制御部は、上記人物が上記第3の値未満のポイントを有する場合、上記選択されたコンテンツをネットワーク上の記憶装置へ送信し、かつ、当該記憶装置上の当該コンテンツの所在場所情報を当該人物に関連する装置へ送信してもよい。   The control unit may transmit the selected content to a device related to the person when the person has a point greater than or equal to a third value greater than the first value. In addition, when the person has a point less than the third value, the control unit transmits the selected content to a storage device on the network, and stores the location information of the content on the storage device. You may transmit to the apparatus relevant to the said person.

これにより電子機器は、各人物のポイントに応じて、すなわち選択されたコンテンツに対する関係の強度に応じて、コンテンツ自体を送信するか、コンテンツ自体は送信せずにその所在場所情報(URL)を送信するかを決定することができる。   Accordingly, the electronic device transmits the content itself according to each person's point, that is, according to the strength of the relationship with the selected content, or transmits the location information (URL) without transmitting the content itself. You can decide what to do.

本発明の他の形態に係るコンテンツ送信方法は、人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報を記憶することを含む。上記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力が受け付けられる。上記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる上記識別情報が認識され、上記所定の関係の強度に応じて、当該認識された識別情報により識別され上記人物情報に含まれる各人物のポイントが算出される。所定の閾値以上の上記ポイントを有する人物の上記人物情報が、当該人物に関連する上記装置へ上記選択されたコンテンツまたは当該コンテンツの所在場所情報を送信するための送信先候補として表示される。上記表示された送信先候補としての人物情報に対応する人物に関連する装置へ、上記選択されたコンテンツが送信される。または、ネットワーク上の記憶装置へ上記選択されたコンテンツが送信され、かつ、当該記憶装置上の当該コンテンツの上記所在場所情報が、上記対応する人物に関連する装置へ送信される。   A content transmission method according to another aspect of the present invention stores a plurality of contents including identification information for identifying a person, and personal information relating to the plurality of persons including at least the identification information and a person name corresponding to the identification information. Including doing. An input of a user operation for selecting at least one content from the plurality of contents is accepted. The identification information included in the other content having a predetermined relationship with the selected content is recognized, and each of the individual information included in the person information is identified by the recognized identification information according to the strength of the predetermined relationship. A person's points are calculated. The person information of the person who has the point equal to or greater than a predetermined threshold is displayed as a transmission destination candidate for transmitting the selected content or the location information of the content to the device related to the person. The selected content is transmitted to a device related to the person corresponding to the person information as the displayed transmission destination candidate. Alternatively, the selected content is transmitted to a storage device on the network, and the location information of the content on the storage device is transmitted to a device related to the corresponding person.

本発明のまた別の形態に係るプログラムは、電子機器に、記憶ステップと、操作入力ステップと、算出ステップと、表示ステップと、送信ステップとを実行させるものである。上記記憶ステップでは、人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報が記憶される。上記操作入力ステップでは、上記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力が受け付けられる。上記算出ステップでは、上記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる上記識別情報が認識され、上記所定の関係の強度に応じて、当該認識された識別情報により識別され上記人物情報に含まれる各人物のポイントが算出される。上記表示ステップでは、所定の閾値以上の上記ポイントを有する人物の上記人物情報が、当該人物に関連する上記装置へ上記選択されたコンテンツまたは当該コンテンツの所在場所情報を送信するための送信先候補として表示される。上記送信ステップでは、上記表示された送信先候補としての人物情報に対応する人物に関連する装置へ、上記選択されたコンテンツが送信される。または、ネットワーク上の記憶装置へ上記選択されたコンテンツが送信され、かつ、当該記憶装置上の当該コンテンツの上記所在場所情報が、上記対応する人物に関連する装置へ送信される。   A program according to still another aspect of the present invention causes an electronic device to execute a storage step, an operation input step, a calculation step, a display step, and a transmission step. In the storing step, a plurality of contents including identification information for identifying a person, and personal information regarding the plurality of persons including at least the identification information and a person name corresponding to the identification information are stored. In the operation input step, an input of a user operation for selecting at least one content from the plurality of contents is received. In the calculation step, the identification information included in other content having a predetermined relationship with the selected content is recognized, and the person is identified by the recognized identification information according to the strength of the predetermined relationship. Points of each person included in the information are calculated. In the display step, the person information of the person having the point equal to or greater than a predetermined threshold is used as a transmission destination candidate for transmitting the selected content or the location information of the content to the device related to the person. Is displayed. In the transmission step, the selected content is transmitted to a device related to a person corresponding to the person information as the displayed transmission destination candidate. Alternatively, the selected content is transmitted to a storage device on the network, and the location information of the content on the storage device is transmitted to a device related to the corresponding person.

以上説明したように、本発明によれば、コンテンツを共有させるべき他のユーザを、ユーザに煩雑な作業を行わせることなく適切に判断して提示し、当該他のユーザにコンテンツを送信することができる。   As described above, according to the present invention, other users who should share the content are appropriately judged and presented without causing the user to perform complicated work, and the content is transmitted to the other users. Can do.

本発明の一実施形態に係るPCのハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCにシェアソフトがインストールされる際のPCの処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of PC when share software is installed in PC concerning one Embodiment of this invention. 本発明の一実施形態における登録人物リストの登録画面の例を示した図である。It is the figure which showed the example of the registration screen of the registration person list in one Embodiment of this invention. 本発明の一実施形態における人間関係メタDBについて説明するための図である。It is a figure for demonstrating human relationship metaDB in one Embodiment of this invention. 本発明の一実施形態に係るPCの記憶部に新たな写真が追加された場合におけるPCの処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of PC when a new photograph is added to the memory | storage part of PC concerning one Embodiment of this invention. 本発明の一実施形態において新規顔画像情報に対応する情報の登録の要否をPCがユーザに確認するための画面の例を示した図である。It is the figure which showed the example of the screen for PC for a user to confirm the necessity of registration of the information corresponding to new face image information in one Embodiment of this invention. 本発明の一実施形態に係るPCによるシェア実行処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the share execution process by PC concerning one Embodiment of this invention. 本発明の一実施形態におけるシェア候補リスト画面の表示例を示した図である。It is the figure which showed the example of a display of the share candidate list screen in one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the share process by method (1) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、各写真の撮影状況を示した図である。It is the figure which showed the photography condition of each photograph in the share process by method (1) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、写真リストからユーザがシェアを希望する写真を選択した様子を示した図である。It is the figure which showed a mode that the user selected the photograph which wants to share from a photograph list in the share process by method (1) of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、時間的に近い写真を説明するための図である。It is a figure for demonstrating the photograph close | similar in time in the share process by the method (1) of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、距離的に近い写真を説明するための図である。It is a figure for demonstrating the photograph close | similar in distance in the share process by the method (1) of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、選択された写真のうち1つの写真についてシェア候補を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a share candidate about one photograph in the share process by method (1) of PC which concerns on one Embodiment of this invention about the selected photograph. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、選択された写真のうち他の写真についてシェア候補を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a share candidate about another photograph among the selected photographs in the share process by method (1) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において、選択された全ての写真についてのシェア候補の抽出結果の合算処理を説明するための図である。It is a figure for demonstrating the summation process of the extraction result of the share candidate about all the selected photographs in the share process by method (1) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(1)によるシェア処理において表示されるシェア候補リスト画面の例を示した図である。It is the figure which showed the example of the share candidate list screen displayed in the share process by method (1) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち、人物の分類を利用したシェア処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the share process using a classification of a person among the share processes by method (2) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理において、写真リストからユーザがシェアを希望する写真を選択した様子を示した図である。It is the figure which showed a mode that the user selected the photograph which wants to share from a photograph list in the share process by the method (2) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理において、ユーザがシェアを希望する写真に写っている人物の分類図を示した図である。It is the figure which showed the classification figure of the person who is reflected in the photograph which a user desires to share in the share process by the method (2) of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち分類図を利用する処理におけるシェア候補の抽出結果及びシェア候補リスト画面の例を示した図である。It is the figure which showed the example of the extraction result of the share candidate in the process which uses a classification diagram among the share processes by the method (2) of the PC concerning one Embodiment of this invention, and a share candidate list screen. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち、関係強度図を利用して、写真に写っている人物の写真を欲しいと推測される人物に写真をシェアする処理の流れを示したフローチャートである。Of the sharing process by the method (2) of the PC according to the embodiment of the present invention, a process of sharing a photograph to a person who is assumed to want a photograph of the person in the photograph using the relationship strength diagram It is the flowchart which showed the flow of. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち関係強度図を利用する処理において、ユーザがシェアを希望する写真に写っている人物のうち一人の関係強度図を示した図である。FIG. 5 shows a relationship strength diagram of one of the persons in a photograph that the user wants to share in the processing using the relationship strength diagram in the share processing by the method (2) of the PC according to an embodiment of the present invention. It is a figure. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち関係強度図を利用する処理において、ユーザがシェアを希望する写真に写っている各人物の関係強度図を示した図である。The figure which showed the relationship intensity | strength figure of each person reflected in the photograph which a user desires to share in the process which uses a relationship intensity | strength figure among the share processes by the method (2) of PC concerning one Embodiment of this invention. It is. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち関係強度図を利用した処理におけるシェア候補の抽出結果及びシェア候補リスト画面の例を示した図である。It is the figure which showed the example of the extraction result of the share candidate in the process using a relationship strength figure among the share processes by the method (2) of the PC concerning one Embodiment of this invention, and a share candidate list screen. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち、関係強度図を利用して、写真に写っている人物がその写真をあげたいであろうと推測される人物に写真をシェアする処理の流れを示したフローチャートである。Of the share processing by the method (2) of the PC according to the embodiment of the present invention, using the relationship strength diagram, the person who is in the photograph is supposed to give the photograph to the person who is supposed to give the photograph. It is the flowchart which showed the flow of the process to share. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち関係強度図を利用する処理において、ユーザがシェアを希望する写真に写っている各人物の関係強度図を示した図である。The figure which showed the relationship intensity | strength figure of each person reflected in the photograph which a user desires to share in the process which uses a relationship intensity | strength figure among the share processes by the method (2) of PC concerning one Embodiment of this invention. It is. 本発明の一実施形態に係るPCの、方法(2)によるシェア処理のうち関係強度図を利用した処理におけるシェア候補の抽出結果及びシェア候補リスト画面の例を示した図である。It is the figure which showed the example of the extraction result of the share candidate in the process using a relationship strength figure among the share processes by the method (2) of the PC concerning one Embodiment of this invention, and a share candidate list screen. 本発明の一実施形態に係るPCの、方法(3)によるシェア処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the share process by method (3) of PC which concerns on one Embodiment of this invention. 図29のフローチャートのうちマッチ度の算出処理の流れを示したフローチャートである。30 is a flowchart showing a flow of a match degree calculation process in the flowchart of FIG. 29. 本発明の一実施形態に係るPCの、方法(3)によるシェア処理におけるシェア履歴を示した図である。It is the figure which showed the share history in the share process by the method (3) of PC concerning one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(3)によるシェア処理におけるシェア候補ポイントの算出条件を示した図である。It is the figure which showed the calculation conditions of the share candidate point in the share process by method (3) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(3)によるシェア処理におけるシェア候補の抽出結果を示した図である。It is the figure which showed the extraction result of the share candidate in the share process by method (3) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、方法(3)によるシェア処理におけるシェア候補リスト画面の例を示した図である。It is the figure which showed the example of the share candidate list screen in the share process by method (3) of PC which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPCの、登録人物リストからのデータの削除処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the deletion process of the data from the registered person list of PC concerning one Embodiment of this invention. 本発明の他の実施形態において、無視フラグをONに設定するためのユーザインタフェースの例を示した図である。FIG. 10 is a diagram showing an example of a user interface for setting an ignore flag to ON in another embodiment of the present invention.

以下、図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[PCのハードウェア構成]
図1は、本発明の一実施形態に係るPCのハードウェア構成を示した図である。同図に示すように、PC100は、CPU(Central Processing Unit)101、ROM102(Read Only Memory)、RAM(Random Access Memory)103、入出力インターフェース105、及び、これらを互いに接続するバス104を備える。
[PC hardware configuration]
FIG. 1 is a diagram showing a hardware configuration of a PC according to an embodiment of the present invention. As shown in the figure, the PC 100 includes a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, an input / output interface 105, and a bus 104 that connects these components to each other.

CPU101は、必要に応じてRAM103等に適宜アクセスし、各種演算処理を行いながらPC100の各ブロック全体を統括的に制御する。ROM102は、CPU101に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM103は、CPU101の作業用領域等として用いられ、OS、実行中の各種プログラム、処理中の各種データを一時的に保持する。   The CPU 101 appropriately accesses the RAM 103 or the like as necessary, and performs overall control of each block of the PC 100 while performing various arithmetic processes. The ROM 102 is a nonvolatile memory in which firmware such as an OS to be executed by the CPU 101, programs, and various parameters is fixedly stored. The RAM 103 is used as a work area for the CPU 101 and temporarily holds the OS, various programs being executed, and various data being processed.

入出力インターフェース105には、表示部106、入力部107、記憶部108、通信部109、ドライブ部110等が接続される。   A display unit 106, an input unit 107, a storage unit 108, a communication unit 109, a drive unit 110, and the like are connected to the input / output interface 105.

表示部106は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。当該表示部106は、PC100に内蔵されていてもよいし、PC100に外部接続されていてもよい。   The display unit 106 is a display device using, for example, liquid crystal, EL (Electro-Luminescence), CRT (Cathode Ray Tube), or the like. The display unit 106 may be built in the PC 100 or may be externally connected to the PC 100.

入力部107は、例えばポインティングデバイス、キーボード、タッチパネル、その他の操作装置である。入力部107がタッチパネルを含む場合、そのタッチパネルは表示部106と一体となり得る。   The input unit 107 is, for example, a pointing device, a keyboard, a touch panel, or other operation device. When the input unit 107 includes a touch panel, the touch panel can be integrated with the display unit 106.

記憶部108は、例えばHDD(Hard Disk Drive)や、フラッシュメモリ、その他の固体メモリ等の不揮発性メモリである。当該記憶部108には、後述するデジタル写真画像や登録人物リスト、人間関係メタDB(Database)等のデータや、当該デジタル写真画像を他のユーザとシェアするためのソフトウェア(以下、シェアソフトと称する)等の各種プログラム等が記憶される。   The storage unit 108 is a non-volatile memory such as an HDD (Hard Disk Drive), a flash memory, or other solid-state memory. The storage unit 108 stores data such as a digital photo image, registered person list, and a human relationship meta database (Database) described later, and software for sharing the digital photo image with other users (hereinafter referred to as share software). ) And the like are stored.

ドライブ部110は、例えば光学記録媒体、フロッピー(登録商標)ディスク、磁気記録テープ、フラッシュメモリ等、リムーバブルの記録媒体111を駆動することが可能なデバイスである。これに対し上記記憶部108は、主にリムーバブルでない記録媒体を駆動する、PC100に予め搭載されたデバイスとして使用される場合が多い。   The drive unit 110 is a device capable of driving a removable recording medium 111 such as an optical recording medium, a floppy (registered trademark) disk, a magnetic recording tape, and a flash memory. On the other hand, the storage unit 108 is often used as a device mounted in advance on the PC 100, which mainly drives a non-removable recording medium.

通信部109は、LAN(Local Area Network)、WAN(Wide Area Network)等に接続可能な、他の装置と通信するためのNIC(Network Interface Card)等である。通信部109は、有線及び無線のどちらを利用して通信するものであってもよい。後述するが、PC100は、当該通信部109を用いて他の装置へデジタル写真画像を送信することで当該デジタル写真画像を他の人物と共有させることができる。   The communication unit 109 is a NIC (Network Interface Card) for communicating with other devices that can be connected to a LAN (Local Area Network), a WAN (Wide Area Network), or the like. The communication unit 109 may communicate using either wired or wireless communication. As will be described later, the PC 100 can share the digital photograph image with another person by transmitting the digital photograph image to another apparatus using the communication unit 109.

[PCの動作]
次に、以上のように構成されたPC100の動作(デジタル写真画像のシェア処理)について説明する。以降の説明においては、PC100のCPU101を主な動作主体として説明するが、この動作はCPU101の制御下において動作するその他のハードウェアやソフトウェアとも協働して行われる。特に下記シェアソフトのインストール後は、当該動作は、CPU101とシェアソフトとの協働により実行される。
[PC operation]
Next, the operation (digital photographic image sharing process) of the PC 100 configured as described above will be described. In the following description, the CPU 101 of the PC 100 will be described as the main operating subject, but this operation is performed in cooperation with other hardware and software operating under the control of the CPU 101. In particular, after the following share software is installed, the operation is executed in cooperation with the CPU 101 and the share software.

(シェアソフトのインストール)
まず、上記シェアソフトがPC100にインストールされる際のPC100の動作について説明する。図2は、この場合のPC100の処理の流れを示したフローチャートである。
(Share software installation)
First, the operation of the PC 100 when the share software is installed in the PC 100 will be described. FIG. 2 is a flowchart showing a process flow of the PC 100 in this case.

同図に示すように、まずCPU101は、例えば所定のインストール画面におけるユーザによる操作を基に、シェアソフトをインストールする(ステップ21)。続いてCPU101は、その時点で記憶部108内または記録媒体111内に記憶されているデジタル写真画像(以下、単に写真と称する場合もある)を検索する(ステップ22)。   As shown in the figure, the CPU 101 first installs the share software based on, for example, a user operation on a predetermined installation screen (step 21). Subsequently, the CPU 101 searches for a digital photograph image (hereinafter also simply referred to as a photograph) stored in the storage unit 108 or the recording medium 111 at that time (step 22).

続いてCPU101は、検索された写真について顔認識処理を実行し、顔画像情報を抽出する(ステップ23)。   Subsequently, the CPU 101 performs face recognition processing on the retrieved photograph and extracts face image information (step 23).

ここで、当該顔認識処理としては、従来から存在する技術を採用することができる。すなわち、従来の顔認識システムでは、撮像画像から顔の特徴情報に基づいて顔パターンを抽出する顔抽出処理と、抽出された顔パターンと登録顔画像との比較を行い、特定人物の顔であることを識別する顔識別処理を実行する。顔抽出処理や顔識別処理には、例えば、方位選択性を持ち周波数成分の異なる複数のフィルタを用いることにより、顔画像の特徴量を抽出する「ガボア・フィルタリング(Gabor Filtering)」を適用することができる。上記顔識別処理では、抽出された顔パターンと登録顔画像との比較が行われる。登録顔画像に関しては、あらかじめ特徴量抽出位置毎のガボア・ジェットが算出されている。そして、同じ特徴量抽出位置における入力顔のガボア・ジェットと登録顔のガボア・ジェットの類似度が演算され、複数の特徴量抽出位置における類似度の集合である類似度ベクトルが求められる。続いて、サポート・ベクタ・マシーン(SVM)によるクラス判定が行なわれ、入力顔画像と登録顔画像の認識が行なわれる。サポート・ベクタ・マシーンは、類似度ベクトルの境界面の値を、例えば、+1又は−1と判定する境界面(値が0である位置の面)からの距離が算出され、intra-personal class又はextra-personal classのいずれに属するかが判断される。Intra-personal classに属すると判断される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判断される。また、1つのサポート・ベクタ・マシーンが多くの顔画像を学習(すなわち登録)することで、新たに入力された顔画像が登録されている(学習済みの)顔画像と一致するのか(intra-personal classに属するのか)、又は、一致しないのか(extra-personal classに属するのか)が判定される。サポート・ベクタ・マシーンは、パターン認識の分野で最も学習汎化能力が高いと当業界では評価されている。   Here, as the face recognition processing, a conventional technique can be employed. That is, in the conventional face recognition system, a face extraction process for extracting a face pattern from a captured image based on face feature information and a comparison between the extracted face pattern and a registered face image are performed, and the face is a specific person. A face identification process for identifying this is executed. For face extraction processing and face identification processing, for example, “Gabor Filtering” that extracts facial image feature quantities by using multiple filters with different directional selectivity and frequency components is applied. Can do. In the face identification process, the extracted face pattern is compared with the registered face image. For the registered face image, a Gabor jet for each feature amount extraction position is calculated in advance. Then, the similarity between the Gabor jet of the input face and the Gabor jet of the registered face at the same feature amount extraction position is calculated, and a similarity vector that is a set of similarities at a plurality of feature amount extraction positions is obtained. Subsequently, class determination by a support vector machine (SVM) is performed, and an input face image and a registered face image are recognized. The support vector machine calculates the distance from the boundary surface (surface at the position where the value is 0) that determines the value of the boundary surface of the similarity vector as, for example, +1 or −1, and the intra-personal class or It is determined which of the extra-personal class it belongs to. If there is no similarity vector determined to belong to the intra-personal class, it is determined that an unregistered person's face has been input. Also, if one support vector machine learns (that is, registers) many face images, whether the newly input face image matches the registered (learned) face image (intra- whether it belongs to personal class) or does not match (whether it belongs to extra-personal class). Support vector machines are recognized in the industry as having the highest level of learning generalization in the field of pattern recognition.

続いてCPU101は、当該顔画像情報を人間関係メタDBに反映する(ステップ24)。当該人間関係メタDBについては後述する。   Subsequently, the CPU 101 reflects the face image information in the human relationship meta DB (step 24). The human relationship meta DB will be described later.

続いてCPU101は、上記抽出された顔画像情報が新規であるか否かを判断する(ステップ25)。新規であると判断した場合(Yes)、CPU101は、当該顔画像情報を登録人物リストに追加する(ステップ26)。新規でない、すなわち既に登録されていると判断した場合(No)、CPU101は、当該登録人物リストにおける当該顔画像情報の頻出度を加算する(ステップ27)。   Subsequently, the CPU 101 determines whether or not the extracted face image information is new (step 25). If it is determined to be new (Yes), the CPU 101 adds the face image information to the registered person list (step 26). When determining that it is not new, that is, already registered (No), the CPU 101 adds the frequency of the face image information in the registered person list (step 27).

ここで、上記登録人物リストについて説明する。図3は、当該登録人物リストの登録画面の例を示した図である。   Here, the registered person list will be described. FIG. 3 is a diagram showing an example of a registration screen for the registered person list.

同図に示すように、当該登録画面は、各登録ユーザ(顔画像)について、顔画像情報欄31、名前欄32、メールアドレス欄33、頻出度欄34、無視フラグ欄35及び最終更新日時欄36の各表示欄を有する。これらの各項目が全て入力されているユーザは登録完了群37として表示され、未入力の項目があるユーザは登録未完了群38として表示される。   As shown in the figure, the registration screen displays, for each registered user (face image), a face image information column 31, a name column 32, an email address column 33, a frequent occurrence column 34, an ignore flag column 35, and a last update date / time column. There are 36 display fields. A user who has entered all these items is displayed as a registration completion group 37, and a user who has an uninput item is displayed as a registration incomplete group 38.

顔画像情報欄31は、上記写真から抽出された顔画像を示すための欄である。顔画像情報としては複数の画像が登録されうる。CPU101は、上記顔認識処理により同一人物であると判断した顔画像を同一の顔画像情報欄31に表示する。ユーザは、同一の顔画像情報欄31に表示された複数の顔画像が別人の顔画像であると判断すれば、それらの顔画像情報を分離し、別のユーザとして登録しなおすこともできる。また、ユーザは、当該登録画面上で、同一人物についての複数の顔画像のうち、代表画像(サムネイル)として用いるデータを選択することもできる。   The face image information column 31 is a column for indicating a face image extracted from the photograph. A plurality of images can be registered as face image information. The CPU 101 displays the face images determined to be the same person by the face recognition process in the same face image information column 31. If the user determines that the plurality of face images displayed in the same face image information column 31 are the face images of another person, the user can separate the face image information and re-register as another user. The user can also select data to be used as a representative image (thumbnail) from among a plurality of face images of the same person on the registration screen.

名前欄32及びメールアドレス欄33は、ユーザが当該登録画面上で入力した名前及びメールアドレスを表示する欄である。当該メールアドレスは、後述するように、写真を他のユーザにシェアする際の送信先となる。当該名前及びメールアドレスがユーザにより入力されると、登録未完了群38に表示されていたデータが登録完了群37へと移行される。   The name column 32 and the email address column 33 are columns for displaying the name and email address entered by the user on the registration screen. As will be described later, the e-mail address is a transmission destination when the photo is shared with other users. When the user inputs the name and email address, the data displayed in the unregistered group 38 is transferred to the registered group 37.

頻出度欄34は、ユーザに、ユーザ登録(の完了)を勧める度合を示し、当該頻出度が高いほど、その人物の顔が上記記憶部108等に記憶された写真に多く写っていることを示している。   The frequent appearance column 34 indicates the degree to which the user is recommended (completed) for user registration, and the higher the frequent occurrence degree, the more the face of the person is shown in the photograph stored in the storage unit 108 or the like. Show.

無視フラグ欄35は、その人物(顔画像)について、ユーザが明示的に無視する(写真のシェアを実行しない)ことを選択しているか否かを示す欄である。この無視フラグがON(1)に設定されている場合には、写真に写っていてもCPU101はユーザ登録をユーザに促さず、後述するシェア候補にも加えない。   The ignore flag column 35 is a column indicating whether or not the user has explicitly selected to ignore (do not execute photo sharing) for the person (face image). When the ignore flag is set to ON (1), the CPU 101 does not prompt the user for user registration even if it is shown in a photograph, and does not add it to a share candidate described later.

最終更新日時欄36は、その人物に関する各欄の情報項目が最後に更新された日時を示す欄である。当該最終更新日時欄36は、たまたま通りすがりで写真に写ってしまった人の処理に対応するために設けられている。すなわち、後述するが、一定期間写真に登場せず、かつ、ユーザにより名前やメールアドレスに関する情報が入力されていない人物は、登録人物リストから自動的に削除される。   The last update date / time column 36 is a column indicating the date / time when the information item of each column related to the person was last updated. The last update date / time column 36 is provided to deal with processing of a person who happens to pass through a photograph. That is, as will be described later, a person who has not appeared in a photo for a certain period of time and for whom no information about a name or email address has been input by the user is automatically deleted from the registered person list.

図2に戻り、CPU101は、上記登録画面上で、顔情報及び連絡先情報(メールアドレス)を登録するか否かをユーザに確認する画面を表示させ、ユーザの指示を待つ(ステップ28)。当該確認画面上で、登録指示があった場合(Yes)、CPU101は、上記登録画面を表示させ、当該登録画面上でユーザから入力された情報を登録人物リストに登録し(ステップ29)、当該登録の完了を、シェアソフトのインストール完了とともに表示して終了する。   Returning to FIG. 2, the CPU 101 displays a screen for confirming whether or not to register face information and contact information (email address) on the registration screen, and waits for an instruction from the user (step 28). If there is a registration instruction on the confirmation screen (Yes), the CPU 101 displays the registration screen, registers information input by the user on the registration screen in the registered person list (step 29), and Completion of registration will be displayed together with the completion of installation of the share software.

次に、上記人間関係メタDBについて説明する。図4は、当該人間関係メタDBについて説明するための図である。   Next, the human relationship meta DB will be described. FIG. 4 is a diagram for explaining the human relationship meta DB.

同図(A)に示すように、人間関係メタDBは、上記登録人物リストに登録された人物相互間の関係の強度を示すデータを記憶したものであり、名前41、顔画像情報42、属性・分類43、関係強度44の各情報項目を有する。属性・分類43は、例えば生年月日、勤務先、学歴、趣味、特技、サークル等、各人物が属している集団やカテゴリーを示す。   As shown in FIG. 4A, the human relationship meta DB stores data indicating the strength of the relationship between the persons registered in the registered person list, and includes a name 41, face image information 42, attributes. -It has each information item of classification 43 and relation strength 44. The attribute / classification 43 indicates a group or category to which each person belongs, such as date of birth, work place, educational background, hobby, special skill, circle, and the like.

当該人間関係メタDBにおいては、同じ写真に写っていれば、お互いの関係の強度が加算される。例えば、同図(A)において、TomとJimが同じ写真に写っている場合、TomからJimに対する関係の強度及びJimからTomに対する関係の強度がそれぞれ1加算される。さらに、これらの関係の強度は、後述する写真シェア処理の実行に応じて更新される。   In the human relationship meta DB, the strengths of mutual relationships are added if they appear in the same photograph. For example, in FIG. 5A, when Tom and Jim appear in the same picture, 1 is added to the strength of the relationship from Tom to Jim and the strength of the relationship from Jim to Tom. Furthermore, the strength of these relationships is updated in accordance with execution of a photo sharing process described later.

同図(B)は当該人間関係メタDBを基に、各人物間の関係の強度を図式化したものである。同図に示すように、例えばTomはJackに対して比較的強い関係(関心)を有し、MaryはTomに対して比較的強い関係(関心)を有していることが分かる。   FIG. 5B schematically shows the strength of the relationship between each person based on the human relationship meta DB. As shown in the figure, for example, Tom has a relatively strong relationship (interest) with Jack, and Mary has a relatively strong relationship (interest) with Tom.

(写真の追加)
次に、PC100の記憶部108に新たな写真が追加された場合のPC100の動作について説明する。図5は、この場合におけるPC100の処理の流れを示したフローチャートである。
(Add photo)
Next, the operation of the PC 100 when a new photo is added to the storage unit 108 of the PC 100 will be described. FIG. 5 is a flowchart showing a process flow of the PC 100 in this case.

同図に示すように、まずCPU101は、記憶部108に写真が追加されると(ステップ51)、当該写真から顔画像情報を抽出し(ステップ52)、抽出された顔画像情報を上記人間関係メタDBへ反映する(ステップ53)。   As shown in the figure, first, when a photograph is added to the storage unit 108 (step 51), the CPU 101 extracts face image information from the photograph (step 52), and extracts the extracted face image information from the human relationship. Reflected in the meta DB (step 53).

続いてCPU101は、上記抽出された顔画像情報が新規のものであるか否かを判断する(ステップ54)。新規であると判断した場合(Yes)、CPU101は、上記登録人物リストに当該顔画像情報を追加する(ステップ55)。   Subsequently, the CPU 101 determines whether or not the extracted face image information is new (step 54). If it is determined to be new (Yes), the CPU 101 adds the face image information to the registered person list (step 55).

上記抽出された顔画像情報が新規のものでないと判断した場合(No)、CPU101は、上記登録人物リスト上で、当該顔画像情報に対応する人物について上記無視フラグが立っていないか否かを判断する(ステップ56)。上記無視フラグが立っていると判断した場合(No)、登録は不要であるため、CPU101は処理を終了する。上記無視フラグが立っていないと判断した場合(Yes)、CPU101は、上記登録人物リストの頻出度を上記図2の場合と同様に加算する。   When it is determined that the extracted face image information is not new (No), the CPU 101 determines whether or not the ignore flag is not set for the person corresponding to the face image information on the registered person list. Judgment is made (step 56). If it is determined that the ignore flag is set (No), registration is not necessary, and the CPU 101 ends the process. If it is determined that the ignore flag is not set (Yes), the CPU 101 adds the frequency of the registered person list as in the case of FIG.

続いてCPU101は、上記抽出された顔画像情報に対応する人物について、上記登録人物リスト上で名前及びメールアドレスが登録済みであるか否かを判断する(ステップ58)。登録済みである場合(Yes)、それ以上登録が必要な項目はないため、CPU101は処理を終了する。   Subsequently, the CPU 101 determines whether a name and an e-mail address have been registered on the registered person list for the person corresponding to the extracted face image information (step 58). If it has already been registered (Yes), there is no item that needs to be registered any more, so the CPU 101 ends the process.

名前及びメールアドレスが未登録である場合(No)、CPU101は、上記頻出度が所定の点以上であるか否かを判断する(ステップ59)。当該頻出度が所定の値以下であると判断した場合(No)、当該人物に関する情報は不要であるため、CPU101は処理を終了する。   When the name and the mail address are not registered (No), the CPU 101 determines whether or not the frequency of occurrence is a predetermined point or more (step 59). When it is determined that the frequency of occurrence is equal to or less than a predetermined value (No), the CPU 101 ends the process because information about the person is unnecessary.

上記頻出度が所定の点以上である場合(Yes)、CPU101は、上記抽出された顔画像情報及びそれに対応する人物の連絡先を登録人物リストに登録するか否かをユーザに確認するための画面(登録確認画面)を表示する(ステップ60)。   When the frequency of occurrence is equal to or higher than a predetermined point (Yes), the CPU 101 confirms with the user whether or not to register the extracted face image information and the contact information of the person corresponding thereto in the registered person list. A screen (registration confirmation screen) is displayed (step 60).

図6は、当該登録確認画面の例を示した図である。同図に示すように、登録確認画面は、例えば表示部106の隅にポップアップ表示される。当該登録確認画面は、登録を指示するための「はい」ボタン11、後で登録することを指示するための「後で」ボタン12及び当該顔画像情報が抽出されても今後登録処理を行わないことを指示するための「今後無視する」ボタン13が表示される。   FIG. 6 is a diagram showing an example of the registration confirmation screen. As shown in the figure, the registration confirmation screen is popped up at the corner of the display unit 106, for example. In the registration confirmation screen, a “Yes” button 11 for instructing registration, a “Later” button 12 for instructing registration later, and the face image information will not be registered in the future. A “ignore from now on” button 13 is displayed to instruct this.

図5に戻り、ユーザにより入力部107を介して「はい」ボタン11が押下された場合、CPU101は、上記登録画面を表示してユーザが入力した名前及びメールアドレスを登録人物リストに登録する(ステップ61)。   Returning to FIG. 5, when the user presses the “Yes” button 11 via the input unit 107, the CPU 101 displays the registration screen and registers the name and mail address input by the user in the registered person list ( Step 61).

「後で」ボタン12が押下された場合または上記登録確認画面が表示されてから一定時間が経過した場合、CPU101は、処理を終了する。また、「今後無視する」ボタン13が押下された場合、CPU101は、上記登録人物リスト上で上記無視フラグをONに設定し、処理を終了する。   When the “later” button 12 is pressed or when a predetermined time has elapsed since the registration confirmation screen is displayed, the CPU 101 ends the process. When the “ignore in the future” button 13 is pressed, the CPU 101 sets the ignore flag to ON on the registered person list and ends the process.

(シェア実行処理)
次に、上記登録人物リストを基に、記憶部108の写真を他のユーザとシェアする処理について説明する。図7は、PC100による当該シェア処理の流れを示したフローチャートである。
(Share execution processing)
Next, a process for sharing a photograph in the storage unit 108 with another user based on the registered person list will be described. FIG. 7 is a flowchart showing the flow of the share processing by the PC 100.

本実施形態においては、PC100は、以下の3つの方法により、上記登録人物リスト中の人物にポイントを付与し、当該ポイントの高さに応じて、写真のシェア候補を自動的に判別して提示する。   In this embodiment, the PC 100 gives points to the person in the registered person list by the following three methods, and automatically identifies and presents photo share candidates according to the height of the points. To do.

・方法(1):ユーザがシェアを望む写真に撮影時間または撮影場所が近い写真に写っている人物に、その近さに応じてポイントを配分する。 Method (1): Points are allocated to a person who is in a photograph whose shooting time or shooting place is close to the photograph that the user wants to share according to the closeness.

当該方法(1)のユースケースとしては、例えばユーザが5人の友人と旅行に行き多くの写真を撮影し、その中からお気に入りの写真を一緒に行った友人とシェアしたいが、その写真にはそれら友人のうち2人しか写っていない場合に、自動的に5人全員をシェア候補として提示することが考えられる。   As a use case of the method (1), for example, a user wants to travel with five friends and take a lot of photos and share a favorite photo with a friend who has taken a photo together. If only two of these friends are shown, it is possible to automatically present all five as share candidates.

・方法(2):人間関係メタDBから、ユーザがシェアを望む写真に写っている人物と関係が強い人に、当該関係の強さに応じてポイントを配分する。 Method (2): Points are allocated from the human relationship meta DB to a person who has a strong relationship with a person shown in a photograph that the user wants to share according to the strength of the relationship.

当該方法(2)のユースケースとしては、例えばユーザが学生時代の同窓会に出席して多くの写真を撮影し、その中からお気に入りの写真を仲のよい同窓生とシェアしたいが、その写真にはシェアしたくない人物が写っていたり、シェアしたくても同窓会を欠席して全く写っていない人物がいたりする場合に、写真に写っているか否かに関わらず、自動的に仲のよい同窓生全員をシェア候補として提示し、シェアしたくない人物をシェア候補から外すことが考えられる。   As a use case of the method (2), for example, a user attends a student alumni association and takes a lot of photos, and she wants to share a favorite photo with a good fellow alumni. If there is a person you don't want to see, or you want to share, but there is a person who is absent from the alumni association and is not in the picture at all, regardless of whether it is in the picture or not, it will automatically share all alumni with good friends It is possible to remove those who do not want to share from the share candidates.

・方法(3):これまでのシェア履歴から、ユーザがシェアを望む写真に写っている人物が写っている他の写真を頻繁にシェアしている人物を割り出し、その頻度に応じてポイントを配分する。 ・ Method (3): From the past share history, find the person who frequently shares other pictures that the person in the picture the user wants to share, and allocate points according to the frequency To do.

当該方法(3)のユースケースとしては、例えばユーザが子供の運動会で子供の写真を多く撮影し、その中からお気に入りの写真を両親とシェアしたいが、その写真に両親は写っていない場合に、自動的に両親をシェア候補として提示することが考えられる。   As a use case of the method (3), for example, when a user takes many pictures of a child at a children's athletic meet and wants to share a favorite picture with the parents, but the parents are not reflected in the picture, It is possible to automatically present parents as share candidates.

いずれの方法においても、ポイントが高い順に人物がリスト化され、シェア候補として表示される。また、当該シェア候補上で、ポイントが一定値より高い人物には、送信先に設定するためのチェックボックスが自動的にONに設定され表示される。   In either method, the persons are listed in descending order of points and displayed as share candidates. On the share candidate, a check box for setting a transmission destination is automatically set to ON for a person whose points are higher than a certain value.

図7に戻り、まずCPU101は、例えば記憶部108に記憶された写真のリスト画面上で、ユーザがシェアしたい写真を選択する操作を受け付ける(ステップ71)。   Returning to FIG. 7, first, the CPU 101 accepts an operation for the user to select a photo that the user wants to share on, for example, a photo list screen stored in the storage unit 108 (step 71).

続いてCPU101は、上記方法(1)〜(3)によりシェア候補ポイントをそれぞれ算出する(ステップ72〜74)。そしてCPU101は、各方法により算出されたポイントについて重みづけをし、重みづけ後のシェア候補ポイントを合算する(ステップ75)。これら方法(1)〜(3)によるシェア候補ポイントの算出処理の詳細は後述する。   Subsequently, the CPU 101 calculates share candidate points by the above methods (1) to (3) (steps 72 to 74). Then, the CPU 101 weights the points calculated by the respective methods, and adds up the share candidate points after weighting (step 75). Details of the share candidate point calculation processing by these methods (1) to (3) will be described later.

ここで、上記重みづけの手法について説明する。当該重みづけは、例えば、上記シェアソフトのインストール後にユーザが当該シェアソフトを使っていくにつれて、CPU101が以下のようなルールで動的に重みづけ値を変更することで実行される。   Here, the weighting method will be described. The weighting is executed, for example, by the CPU 101 dynamically changing the weighting value according to the following rules as the user uses the share software after installing the share software.

すなわち、上記記憶部108における写真の数が増えるにつれて、上記方法(1)による結果が重視され、上記登録人物リストにおける顔画像情報の登録数が増えるにつれて、方法(2)による結果が重視され、過去のシェア履歴が増えるにつれて、上記方法(3)による結果が重視される。   That is, as the number of photographs in the storage unit 108 increases, the result by the method (1) is emphasized, and as the number of registered face image information in the registered person list increases, the result by the method (2) is emphasized. As the past share history increases, the result by the method (3) is emphasized.

さらに、ユーザがシェアしようとしている写真に時間的または距離的に近い写真が多いほど、上記方法(1)による結果が重視され、シェアしようとしている写真に写っている人物の上記人間関係メタデータが多いほど、上記方法(2)による結果が重視され、シェアしようとしている写真に写っている人物が写っている他の写真が頻繁にシェアされているほど、上記方法(3)による結果が重視される。   Furthermore, the more photographs that are close in time or distance to the photos that the user is trying to share, the more important the result of the method (1) is, and the human relationship metadata of the person appearing in the photos that are to be shared The greater the number, the more important the result by the method (2), and the more frequently the other photos in which the person appearing in the photo to be shared is shared, the more the result by the method (3) is emphasized. The

続いてCPU101は、上記合算されたシェア候補ポイント順に、上記登録人物リスト上のシェア候補である人物に関する情報を並び替える(ステップ76)。   Subsequently, the CPU 101 rearranges information regarding the person who is a share candidate on the registered person list in the order of the combined share candidate points (step 76).

続いてCPU101は、上記シェア候補である人物について、無視フラグがOFFであるか否かを判断する(ステップ77)。無視フラグがOFFであれば(Yes)、シェア候補リスト画面(後述)において、上記シェア候補である人物に関する情報を「シェア候補欄」に生成する(ステップ78)。無視フラグがONであれば(No)、当該シェア候補である人物に関する情報を「除外者欄」に生成する(ステップ79)。   Subsequently, the CPU 101 determines whether or not the ignore flag is OFF for the person who is the share candidate (step 77). If the ignore flag is OFF (Yes), information on the share candidate person is generated in the “share candidate column” on the share candidate list screen (described later) (step 78). If the ignore flag is ON (No), information on the person who is the share candidate is generated in the “excluded person column” (step 79).

続いてCPU101は、上記シェア候補リスト画面においてシェアチェックボックスを表示する(ステップ80)。   Subsequently, the CPU 101 displays a share check box on the share candidate list screen (step 80).

続いてCPU101は、上記「シェア候補欄」に生成されたシェア候補である人物のシェア候補ポイントが所定値以上であるか否かを判断し(ステップ81)、所定値以上である場合(Yes)は上記シェアチェックボックスをONに設定する(ステップ82)。   Subsequently, the CPU 101 determines whether or not the share candidate point of the person who is the share candidate generated in the “share candidate field” is equal to or greater than a predetermined value (step 81). Sets the share check box to ON (step 82).

そしてCPU101は、以上の処理により完成したシェア候補リスト画面を表示部106に表示する(ステップ83)。   Then, the CPU 101 displays the share candidate list screen completed by the above processing on the display unit 106 (step 83).

図8は、当該シェア候補リスト画面の表示例を示した図である。同図に示すように、当該シェア候補リスト画面90には、上記シェア候補欄93、上記除外者欄98のほか、シェア実行ボタン91、宛先追加ボタン92が表示される。   FIG. 8 is a diagram showing a display example of the share candidate list screen. As shown in the figure, the share candidate list screen 90 displays a share execution button 91 and a destination addition button 92 in addition to the share candidate field 93 and the excluder field 98.

上記シェア候補欄93では、上述のように、上記シェア候補ポイントが高い順に各人物の人物名及びメールアドレスがリスト表示される。当該人物名に加えて、または代えて、当該人物の顔画像情報が表示されてもよい。また上述のように、所定値以上のシェア候補ポイントを有するシェア候補者のシェア候補欄93のチェックボックス94はONに設定される(人物B、D、C)。また、シェア候補であるがメールアドレスが未登録である人物については、メールアドレスを登録するか否かを確認するメッセージが表示される(人物E)。   In the share candidate column 93, as described above, the person names and e-mail addresses of the persons are listed in order from the highest share candidate point. In addition to or instead of the person name, face image information of the person may be displayed. Further, as described above, the check box 94 in the share candidate column 93 of share candidates having share candidate points equal to or greater than a predetermined value is set to ON (persons B, D, and C). For a person who is a share candidate but whose email address is not registered, a message for confirming whether or not to register the email address is displayed (person E).

当該シェア候補である人物のうち、ユーザがシェアを希望するとして選択した写真に写っている人物のシェア候補欄93の近傍には、カメラマーク95が表示される。また、当該写真に写っていないがシェア候補欄93に加えられた人物については、当該シェア候補欄93の近傍に追加マーク96とその理由を示すメッセージボックス97が表示される。   A camera mark 95 is displayed in the vicinity of the share candidate field 93 of the person who is in the photograph selected as the share candidate among the persons who are the share candidates. For a person who has not been shown in the picture but has been added to the share candidate field 93, an additional mark 96 and a message box 97 indicating the reason are displayed in the vicinity of the share candidate field 93.

上記除外者欄98は、ボタンとして機能し、ユーザが当該除外者欄98をクリックすると、シェア候補ポイントは高いが上記無視フラグの設定によりシェア候補欄93に表示されなかった人物に関する情報が表示される。   The excluder field 98 functions as a button, and when the user clicks the excluder field 98, information regarding a person who has a high share candidate point but was not displayed in the share candidate field 93 due to the setting of the ignore flag is displayed. The

図7に戻り、上記シェア候補リスト画面90上で、上記シェア実行ボタン91が押下された場合、CPU101は、シェア候補ポイントに応じて、シェアするデータの種類を選択する(ステップ85)。CPU101は、例えばシェア候補ポイントが第1の値以上であれば写真自体、第2の値以上第1の値未満であればサムネイル、第2の値未満であれば写真のデータが格納されているURLまたはパスをそれぞれシェアするデータとして選択する。上記チェックボックス94をONにする条件である所定値は、上記第1の値または第2の値と同じ値であってもよいし、これらの値とは独立して決定されてもよい。上記サムネイルは、写真が記憶部108に追加されたときに生成されてもよいし、後述するシェア実行時に生成されてもよい。また上記URLまたはパスは、例えばネットワーク上のサーバ(記憶装置)にオンラインアルバムとして格納された写真のURLまたはパスである。CPU101は、オンラインアルバム上への写真のアップロードを、後述するシェア実行と同時に行ってもよいし、ユーザの操作に基づいて事前に行ってもよい。   Returning to FIG. 7, when the share execution button 91 is pressed on the share candidate list screen 90, the CPU 101 selects the type of data to be shared in accordance with the share candidate points (step 85). The CPU 101 stores, for example, the photo itself if the share candidate point is equal to or greater than the first value, the thumbnail if the share candidate point is greater than or equal to the second value and less than the first value, and the photo data if less than the second value. Each URL or path is selected as data to be shared. The predetermined value as a condition for turning on the check box 94 may be the same value as the first value or the second value, or may be determined independently of these values. The thumbnail may be generated when a photo is added to the storage unit 108, or may be generated when sharing is described later. The URL or path is a URL or path of a photo stored as an online album on a server (storage device) on the network, for example. The CPU 101 may upload a photo on the online album at the same time as sharing, which will be described later, or in advance based on a user operation.

続いてCPU101は、必要に応じて、所定のコメントを生成する(ステップ87)。例えばCPU101は、上記追加マーク96の表示対象である、写真に写っていないがシェア候補欄93に加えられた人物向けに、その旨を知らせるためのコメントを生成する。当該コメントの例としては、「シェア候補自動抽出機能によりシェアされています」といったものが挙げられる。これは、写真に写っていない人物は、当該写真またはその関連データが自らに送られてくることを予期していない場合もあり、当該人物の困惑や不信感を排除するためである。また、写真に写ってはいるが当該PC100のユーザとの関係が比較的薄い人物向けに上記コメントが生成されてもよい。さらに、上記シェア候補欄93に加えられた人物のうち、上記シェア候補ポイントがある値(例えば上記第2の値)未満の人物について上記コメントが生成されてもよい。すなわちCPU101は、写真に写っているか否か、PC100のユーザとの関係が薄いか否かといった判断に代えて、シェア候補ポイントがある値未満か否かを判断してもよい。後述するが、写真に写っていない人物やPC100のユーザとの関係が比較的薄い人物についてのシェア候補ポイントは総じて低くなるからである。   Subsequently, the CPU 101 generates a predetermined comment as necessary (step 87). For example, the CPU 101 generates a comment for notifying a person who has been added to the share candidate column 93 but is not displayed in the photograph as a display target of the additional mark 96. Examples of the comment include “Shared by share candidate automatic extraction function”. This is because a person who is not shown in the photograph may not expect the photograph or related data to be sent to himself / herself, so as to eliminate the person's confusion and distrust. In addition, the comment may be generated for a person who is shown in a photograph but has a relatively weak relationship with the user of the PC 100. Further, among the persons added to the share candidate column 93, the comment may be generated for a person whose share candidate points are less than a certain value (for example, the second value). That is, the CPU 101 may determine whether or not the share candidate point is less than a certain value, instead of determining whether or not the photograph is reflected in the photograph and whether or not the relationship with the user of the PC 100 is weak. As will be described later, the share candidate points for a person who is not shown in the photograph or a person whose relationship with the user of the PC 100 is relatively light are generally low.

そしてCPU101は、上記シェアチェックボックス94がONに設定された人物のメールアドレス宛に、シェアを実行(写真等のデータを送信)する(ステップ88)。この際、上記コメントが生成されていれば、当該コメントも写真等のデータとともに送信される。また上述したように、シェア対象のデータがURLやパスである場合、当該シェア実行のタイミングで、上記メールアドレス宛にURLやパスが送信されるとともに、ネットワーク上のサーバへ写真自体がアップロードされてもよい。   Then, the CPU 101 executes sharing (sends data such as photos) to the mail address of the person whose share check box 94 is set to ON (step 88). At this time, if the comment is generated, the comment is also transmitted together with data such as a photograph. As described above, when the data to be shared is a URL or path, the URL or path is transmitted to the e-mail address at the timing of the execution of the share, and the photo itself is uploaded to a server on the network. Also good.

またCPU101は、当該シェアを実行すると、それを上記人間関係メタDBに反映する(ステップ89)。すなわちCPU101は、上記人間関係メタDBにおいて、シェアした写真に写っている人物からシェアの宛先である人物に対する関係強度を加算する。   Further, when the CPU 101 executes the share, it reflects it in the human relationship meta DB (step 89). In other words, the CPU 101 adds the relationship strength from the person shown in the shared photo to the person who is the share destination in the human relation meta DB.

上記ステップ84において、シェアチェックボックス94のON/OFFの切り替え操作が入力された場合、CPU101は、当該シェアチェックボックス94のON/OFFを切り替え(ステップ86)、その後の操作入力を待機する(ステップ84)。   When the ON / OFF switching operation of the share check box 94 is input in step 84, the CPU 101 switches ON / OFF of the share check box 94 (step 86) and waits for the subsequent operation input (step 86). 84).

次に、上記方法(1)〜(3)の各処理の詳細について説明する。以下の説明においては、当該PC100のユーザである人物Bが、記憶部108に記憶された写真のうちいくつかを他の人物にシェアすることを想定する。当該写真には、人物Bが自ら撮影したもののほか、人物Bが他の人物からもらったものも含まれている。   Next, details of each process of the above methods (1) to (3) will be described. In the following description, it is assumed that the person B who is the user of the PC 100 shares some of the photos stored in the storage unit 108 with other persons. The photo includes a picture taken by the person B himself and a picture taken by the person B from another person.

(方法(1)によるシェア処理)
まず、上記方法(1)によるシェア処理の詳細について説明する。図9は、上記方法(1)によるシェア処理の流れを示したフローチャートである。同図に示すように、まずCPU101は、ユーザが選択した写真に関する、撮影時間、撮影場所等の情報を取得する(ステップ121)。
(Share processing by method (1))
First, details of the share processing by the method (1) will be described. FIG. 9 is a flowchart showing the flow of share processing by the method (1). As shown in the figure, first, the CPU 101 obtains information such as a photographing time and a photographing place regarding the photograph selected by the user (step 121).

図10は、各写真の撮影状況を示した図であり、図11は、写真リストからユーザがシェアを希望する写真を選択した様子を示した図である。図12に示すように、ユーザは例えば写真上をクリックすることで、シェアを望む写真を選択する。同図では、写真P2及びP7が選択され、各写真上に選択を示すチェックボックス131が表示されている。   FIG. 10 is a diagram showing the shooting situation of each photo, and FIG. 11 is a diagram showing a state in which the user selects a photo that the user wants to share from the photo list. As shown in FIG. 12, the user selects a photograph that the user desires to share by clicking on the photograph, for example. In the figure, photos P2 and P7 are selected, and a check box 131 indicating selection is displayed on each photo.

図11に示すように、写真リスト上の写真P1〜P8のうち、上記選択された写真P2及びP7には、人物B,C,D,E,Gが写っているが、それ以外の人物は、同じ場所にいながら写っていない。   As shown in FIG. 11, among the photos P1 to P8 on the photo list, the selected photos P2 and P7 include people B, C, D, E, and G. , Not in the same place.

図9に戻り、続いてCPU101は、選択された写真について、撮影時間の差が所定の範囲内(例えば30分以内)の写真が存在するか否かを判断する(ステップ122)。撮影時間の差が所定の範囲内の写真が存在する場合(Yes)、CPU101は、顔認識処理により、その写真に写っている人物に関する情報を取得する(ステップ123)。そしてCPU101は、当該人物について、上記撮影時間の差に応じてシェア候補ポイントを加算する(ステップ124)。   Returning to FIG. 9, subsequently, the CPU 101 determines whether or not there is a photograph with a difference in photographing time within a predetermined range (for example, within 30 minutes) for the selected photograph (step 122). When there is a photograph whose photographing time difference is within a predetermined range (Yes), the CPU 101 acquires information about the person shown in the photograph by face recognition processing (step 123). Then, the CPU 101 adds share candidate points for the person according to the difference in the shooting time (step 124).

図12は、各写真の撮影時間の差を説明するための図である。同図に示すように、選択された写真P2及びP7のうち、写真P2については、撮影時間の差が10分以内である写真P1が存在し、撮影時間の差が30分以内である写真P3及びP4が存在する。一方、写真P7については、撮影時間の差が30以内である他の写真は存在しない。したがってCPU101は、当該写真P1、P3及びP4に写っている人物に関する情報を取得して、当該撮影時間の差に応じてシェア候補ポイントを加算する。   FIG. 12 is a diagram for explaining a difference in photographing time of each photograph. As shown in the figure, among the selected photographs P2 and P7, for the photograph P2, there is a photograph P1 whose difference in photographing time is within 10 minutes, and a photograph P3 whose difference in photographing time is within 30 minutes. And P4. On the other hand, for the photo P7, there is no other photo having a difference in shooting time within 30. Therefore, the CPU 101 acquires information about the person shown in the photos P1, P3, and P4, and adds share candidate points according to the difference in the shooting time.

続いてCPU101は、選択された写真について、撮影場所間の距離の差が所定の範囲内(例えば500m以内)の写真が存在するか否かを判断する(ステップ125)。撮影場所の距離の差が所定の範囲内の写真が存在する場合(Yes)、CPU101は、顔認識処理により、その写真に写っている人物に関する情報を取得する(ステップ126)。そしてCPU101は、当該人物について、上記撮影場所間の距離の差に応じてシェア候補ポイントを加算する(ステップ127)。   Subsequently, the CPU 101 determines whether or not there is a photograph with a difference in distance between shooting locations within a predetermined range (for example, within 500 m) for the selected photograph (step 125). If there is a photograph in which the difference in distance between the shooting locations is within a predetermined range (Yes), the CPU 101 acquires information about the person appearing in the photograph by face recognition processing (step 126). Then, the CPU 101 adds share candidate points for the person according to the difference in distance between the shooting locations (step 127).

図13は、各写真の撮影場所間の距離の差を説明するための図である。同図に示すように、選択された写真P2及びP7のうち、写真P2については、距離の差が100m以内の写真P1と500m以内の写真P4とが存在し、写真P7については、距離の差が100m以内の写真P8が存在する。したがってCPU101は、当該写真P1、P4及びP8に写っている人物に関する情報を取得して、当該距離の差に応じてシェアポイントを加算する。   FIG. 13 is a diagram for explaining a difference in distance between shooting locations of each photograph. As shown in the figure, among the selected photographs P2 and P7, for the photograph P2, there is a photograph P1 having a distance difference of 100 m or less and a photograph P4 having a distance of 500 m or less, and for the photograph P7, a difference in distance is present. There is a photo P8 within 100 m. Therefore, the CPU 101 acquires information about the person shown in the photos P1, P4, and P8, and adds share points according to the difference in the distance.

図14は、選択された写真のうち写真P2についてシェア候補を抽出する処理を説明するための図である。同図に示すように、まず写真P2に写っている人物人物B,C,D,E,G)についてはシェア候補ポイントとして10ポイントが加算される。   FIG. 14 is a diagram for explaining a process of extracting share candidates for the photo P2 among the selected photos. As shown in the figure, for a person person B, C, D, E, G) shown in the photograph P2, 10 points are added as share candidate points.

また、写真P2との撮影時間の差が前後10分以内である写真P1に写っている人物(A、B)については、3ポイントが加算され、撮影時間の差が前後30分以内である写真P3及びP4に写っている人物(B、C、E、H)については、それぞれ1ポイントが加算される。   In addition, for a person (A, B) in the photo P1 whose shooting time difference is within 10 minutes before and after the photo P2, 3 points are added, and the photo whose shooting time difference is within 30 minutes before and after One point is added to each person (B, C, E, H) shown in P3 and P4.

また、写真P2との間で撮影場所の距離の差が100m以内である写真P1に写っている人物(A、B)については3ポイントが加算され、距離の差が500m以内である写真P4に写っている人物(B、C)については1ポイントが加算される。   In addition, 3 points are added to the person (A, B) in the photograph P1 whose distance of the shooting location is within 100 m from the photograph P2, and the photograph P4 whose distance is within 500 m is added. One point is added to the person (B, C) in the picture.

図15は、選択された写真のうち写真P7についてシェア候補を抽出する処理を説明するための図である。上記写真P2についての処理と同様に、写真P7に写っている人物(B、C、D、G)については10ポイントが加算され、撮影場所間の距離の差が100m以内である写真P8に写っている人物(B、F)については3ポイントが加算される。   FIG. 15 is a diagram for explaining a process of extracting a share candidate for the photo P7 among the selected photos. Similar to the process for the picture P2, 10 points are added to the person (B, C, D, G) shown in the picture P7, and the picture is shown in the picture P8 where the difference in distance between the shooting locations is within 100 m. 3 points are added to the person (B, F) who is present.

図16は、選択された写真2及び写真P7についてのシェア候補の抽出結果の合算処理を説明するための図である。同図に示すように、上記図14及び図15で算出した写真P2及びP7についての各シェア候補ポイントを合算する。この結果、人物B、C、Dのシェア候補ポイントが突出して高くなることが分かる。   FIG. 16 is a diagram for explaining a summation process of share candidate extraction results for the selected photo 2 and photo P7. As shown in the figure, the share candidate points for the photos P2 and P7 calculated in FIGS. 14 and 15 are added together. As a result, it can be seen that the share candidate points of the persons B, C, and D are prominently high.

図17は、上記合算処理の結果表示されるシェア候補リスト画面90の例を示した図である。同図に示すように、上記図16で算出された合算のシェア候補ポイントに応じて、上記シェア候補リスト画面90上でシェア候補欄93が表示される。例えばシェア候補ポイントが20ポイント以上である人物B、C、Dについては、上記シェアチェックボックス94がONに設定される。   FIG. 17 is a diagram showing an example of the share candidate list screen 90 displayed as a result of the summing process. As shown in the figure, a share candidate column 93 is displayed on the share candidate list screen 90 in accordance with the combined share candidate points calculated in FIG. For example, the share check box 94 is set to ON for persons B, C, and D who have 20 or more share candidate points.

以上説明した方法(1)の処理により、PC100は、ユーザがシェアしたい写真P2及びP7に写っているが、シェアしたくない人物(E、G)を上記シェア候補欄93から除外することができた。   By the process of the method (1) described above, the PC 100 can exclude the person (E, G) who does not want to share from the share candidate column 93 although it is shown in the photos P2 and P7 that the user wants to share. It was.

(方法(2)によるシェア処理)
次に、上記方法(2)によるシェア処理の詳細について説明する。当該方法(2)によるシェア処理には、さらに、上記人間関係メタDBのうち分類情報を利用してシェア候補ポイントを算出する方法(方法(2−1))と、上記人間関係メタDBで表される関係強度図を用いてシェアポイントを算出する方法(方法(2−2))とがある。まず、方法(2−1)の処理について説明する。
(Share processing by method (2))
Next, details of the share processing by the method (2) will be described. The share processing by the method (2) further includes a method (method (2-1)) of calculating share candidate points using classification information in the human relationship meta DB and the human relationship meta DB. There is a method (method (2-2)) for calculating a share point using a relationship strength diagram. First, the process of the method (2-1) will be described.

図18は、上記方法(2−1)によるシェア処理の流れを示したフローチャートである。同図に示すように、CPU101はまず、ユーザが選択した写真の情報を取得する(ステップ181)。   FIG. 18 is a flowchart showing the flow of share processing by the above method (2-1). As shown in the figure, the CPU 101 first obtains information on a photograph selected by the user (step 181).

図19は、写真リストからユーザがシェアを希望する写真を選択した様子を示した図である。同図に示すように、写真リスト中の写真P1〜P8のうち、写真P6が選択されている。   FIG. 19 is a diagram illustrating a state in which a user selects a photo that the user desires to share from the photo list. As shown in the figure, the photo P6 is selected from the photos P1 to P8 in the photo list.

図18に戻り、CPU101は、人間関係メタDBから、選択された写真に写っている人物の「分類」情報を取得する(ステップ182)。   Returning to FIG. 18, the CPU 101 acquires “classification” information of the person in the selected photograph from the human relationship meta DB (step 182).

続いてCPU101は、上記「分類」情報を基に、選択された写真に写っている人物と同じ分類に属する人物が存在するか否かを判断する(ステップ183)。同じ分類に属する人物が存在すると判断した場合(Yes)、CPU101は、当該分類の類似度を算出する(ステップ184)。   Subsequently, based on the “classification” information, the CPU 101 determines whether there is a person who belongs to the same classification as the person shown in the selected photograph (step 183). If it is determined that there is a person belonging to the same category (Yes), the CPU 101 calculates the similarity of the category (step 184).

図20は、当該ユーザがシェアを希望する写真P6に写っている人物の分類図及びシェア候補ポイントの算出条件を示した図である。同図に示すように、CPU101は、写真P6に写っている人物(A、B、E)が属する分類のうち、例えば会社と家族の2つのメインカテゴリーにおいて、それぞれカテゴリー1〜カテゴリー3のサブカテゴリーに属する人物との関係を把握する。このうち人物Bは、シェアしようとしている本人であるため処理から除外される。   FIG. 20 is a diagram showing a classification diagram of persons appearing in a photograph P6 that the user wants to share and calculation conditions for share candidate points. As shown in the figure, the CPU 101, among the categories to which the person (A, B, E) shown in the photograph P6 belongs, for example, in the two main categories of company and family, subcategories of category 1 to category 3, respectively. Understand the relationship with the person belonging to. Of these, the person B is excluded from the processing because it is the person who is trying to share.

同図においては、人物Aは、人物Cとカテゴリー3(同チーム)まで一致し、人物E及びHとカテゴリー2(旧部署)まで一致し、人物D、F、G、I、Jとはカテゴリー1(会社)まで一致している。また人物Cは、人物A、C、Hとカテゴリー2まで一致し、人物D、F、G、Iとカテゴリー1まで一致している。   In the figure, person A matches person C up to category 3 (same team), person E and H matches up to category 2 (old department), and persons D, F, G, I, and J are categories. Matches to 1 (company). The person C matches the persons A, C, and H up to category 2, and the persons D, F, G, and I match up to category 1.

当該分類の類似度は、上記一致しているカテゴリーの階層に応じて決定される。例えばカテゴリー3まで一致していれば類似度は3とされ、カテゴリー1まで一致していれば類似度は1とされる。   The similarity of the classification is determined according to the hierarchy of the matching category. For example, if it matches up to category 3, the similarity is set to 3, and if it matches up to category 1, the similarity is set to 1.

図18に戻り、CPU101は、上記算出した類似度に応じて、各人物のシェア候補ポイントを加算する(ステップ185)。図21は、当該シェア候補ポイントの算出結果(同図(A))及びシェア候補リスト画面の例(同図(B))を示した図である。同図に示すように、上記シェア候補ポイントの算出の結果、シェア候補リスト画面90では、シェア候補ポイント順に、人物C、H、A、D、E、F、Gがシェア候補欄93に表示されている。また、例えばシェア候補ポイントが5ポイント以上である人物については、上記シェアチェックボックス94がONに設定されて表示される。   Returning to FIG. 18, the CPU 101 adds share candidate points of each person according to the calculated similarity (step 185). FIG. 21 is a diagram showing a calculation result of the share candidate points (FIG. (A)) and an example of a share candidate list screen (FIG. (B)). As shown in the figure, as a result of the calculation of the share candidate points, in the share candidate list screen 90, persons C, H, A, D, E, F, and G are displayed in the share candidate column 93 in the order of share candidate points. ing. For example, for a person with 5 or more share candidate points, the share check box 94 is set to ON and displayed.

以上の方法(2−1)の処理により、PC100は、ユーザがシェアしたい写真P6に写っていないがシェアしたい人物(人物C)にチェックを付けることができ、また、写真P6に写っているがシェアしたくない人物(人物A、E)のチェックを外すことができた。   By the processing of the above method (2-1), the PC 100 can check the person (person C) who wants to share although the user does not appear in the photograph P6 that the user wants to share, and the PC 100 appears in the photograph P6. I could uncheck the people I didn't want to share (persons A and E).

次に、上記方法(2−2)の処理について説明する。当該方法(2−2)の処理はさらに、ユーザが選択した写真に写っている人物の写真を欲しがっていると推測される人物をシェア候補とする方法(方法(2−2−1))と、当該写真に写っている人がシェアさせたいと推測される人物をシェア候補とする方法(方法2−2−2)とがある。   Next, the process of the method (2-2) will be described. The processing of the method (2-2) further includes a method (method (2-2-1)) in which a person who is presumed to want a photograph of a person shown in the photograph selected by the user is a share candidate. ) And a method (method 2-2-2) in which a person who is presumed to be shared by a person in the photograph is selected as a share candidate.

まず、上記方法(2−2−1)について説明する。図22は、当該方法(2−2−1)の処理の流れを示したフローチャートである。   First, the method (2-2-1) will be described. FIG. 22 is a flowchart showing a process flow of the method (2-2-1).

同図に示すように、CPU101はまず、上記方法(2−1)と同様に、ユーザが選択した写真の情報を取得する(ステップ221)。ここでも、上記写真P6が選択されたものとする。   As shown in the figure, the CPU 101 first acquires the information of the photograph selected by the user as in the method (2-1) (step 221). Here again, it is assumed that the picture P6 is selected.

続いてCPU101は、上記人間関係メタDBから、ユーザが選択した写真P6に写っている人物とその関係者の「関係強度」情報を取得する(ステップ222)。   Subsequently, the CPU 101 acquires the “relationship strength” information of the person shown in the photograph P6 selected by the user and the related party from the human relationship meta DB (step 222).

続いてCPU101は、選択された写真P6に写っている人物の関係者から写っている人物に向かう関係(興味を示す関係)があるか否かを判断する(ステップ223)。   Subsequently, the CPU 101 determines whether or not there is a relationship (relationship indicating interest) from a person related to the person shown in the selected photo P6 toward the person shown (step 223).

図23は、PC100のユーザである人物Bと他の人物との関係強度を示した図である。また図24は、上記選択された写真P6に写っている人物A、B、Eのいずれかに向かっている関係強度(矢印)を示した図である。両図に示すように、人物Aには人物C及びJから矢印が向かっており、人物Bには人物C、D、F、G、H、Iから矢印が向かっており、人物Eには人物Cから矢印が向かっている。各関係強度は各矢印の太さで示されている。   FIG. 23 is a diagram illustrating the relationship strength between the person B who is the user of the PC 100 and another person. FIG. 24 is a diagram showing the relationship strength (arrow) toward one of the persons A, B, and E shown in the selected photo P6. As shown in both figures, an arrow is directed from persons C and J to person A, an arrow is directed from persons C, D, F, G, H, and I to person B, and a person is directed to person E. An arrow is pointing from C. Each relation strength is indicated by the thickness of each arrow.

図22に戻り、CPU101は、上記関係強度に応じて、上記写真P6に写っている人物A、B、Eにそれぞれシェア候補ポイントを加算する(ステップ22)。   Returning to FIG. 22, the CPU 101 adds share candidate points to the persons A, B, and E shown in the photograph P6 according to the relationship strength (step 22).

図25は、当該関係強度に基づくシェア候補ポイントの算出結果(同図(A))及びシェア候補リスト画面90の例(同図(B))を示した図である。同図(A)に示すように、例えば写真P6の持ち主である人物Bへの興味(矢印)がある場合には、シェア候補ポイントは2倍とされる。同図(B)に示すように、例えばシェア候補ポイントが5ポイント以上である人物については、上記シェアチェックボックス94がONに設定されて表示される。   FIG. 25 is a diagram showing a calculation result of share candidate points based on the relationship strength (FIG. (A)) and an example of the share candidate list screen 90 (FIG. (B)). As shown in FIG. 5A, for example, when there is an interest (arrow) in the person B who is the owner of the photograph P6, the share candidate points are doubled. As shown in FIG. 5B, for example, for a person with 5 or more share candidate points, the share check box 94 is set to ON and displayed.

以上の方法(2−2−1)の処理により、CPU101は、ユーザがシェアしたい写真P6に写っていないがシェアしたい人物(人物C、J、D、G)にチェックをつけることができ、また写真P6に写っているがシェアしたくない人物(人物A、E)のチェックを外すことができた。   By the processing of the above method (2-2-1), the CPU 101 can check a person (person C, J, D, G) that is not shown in the photograph P6 that the user wants to share but wants to share. The person (persons A and E) in the photo P6 who does not want to share can be unchecked.

次に、上記方法(2−2−2)の処理について説明する。図26は、当該方法(2−2−2)の処理の流れを示したフローチャートである。当該方法(2−2−2)の処理は、関係強度図における矢印の方向が逆となる以外は上記図22〜25の処理と同様である。すなわち、この場合は、選択された写真P6に写っている人物から他の人物に向かう関係の強度に応じてシェア候補ポイントが加算される(ステップ261〜264)。   Next, the process of the above method (2-2-2) will be described. FIG. 26 is a flowchart showing a process flow of the method (2-2-2). The process of the method (2-2-2) is the same as the process of FIGS. 22 to 25 except that the direction of the arrow in the relationship strength diagram is reversed. That is, in this case, share candidate points are added according to the strength of the relationship from the person shown in the selected photo P6 to another person (steps 261 to 264).

図27は、上記選択された写真P6に写っている人物A、B、Eのいずれかから他の関係者に向かっている関係強度(矢印)を示した図である。図28は、当該関係強度に基づくシェア候補ポイントの算出結果(同図(A))及びシェア候補リスト画面90の例(同図(B))を示した図である。上述の方法(2−2−1)と同様に、同図(A)に示すように、例えば写真P6の持ち主である人物Bからの興味(矢印)がある場合には、シェア候補ポイントは2倍とされる。同図(B)に示すように、例えばシェア候補ポイントが5ポイント以上である人物については、上記シェアチェックボックス94がONに設定されて表示される。   FIG. 27 is a diagram showing the relationship strength (arrow) from one of the persons A, B, and E shown in the selected photo P6 toward another related party. FIG. 28 is a diagram showing a calculation result of share candidate points based on the relationship strength (FIG. 28A) and an example of the share candidate list screen 90 (FIG. 28B). Similar to the above method (2-2-1), as shown in FIG. 6A, when there is an interest (arrow) from the person B who is the owner of the photograph P6, the share candidate point is 2 Doubled. As shown in FIG. 5B, for example, for a person with 5 or more share candidate points, the share check box 94 is set to ON and displayed.

以上の方法(2−2−2)の処理により、CPU101は、ユーザがシェアしたい写真P6に写っていないがシェアしたい人物(人物C、D、G、J)にチェックをつけることができ、写っているがシェアしたくない人物(人物E)のチェックを外すことができた。   By the processing of the above method (2-2-2), the CPU 101 can check the person (person C, D, G, J) that is not shown in the photograph P6 that the user wants to share but wants to share. I could uncheck the person I want to share but not want to share (person E).

(方法(3)によるシェア処理)
次に、上記方法(3)によるシェア処理について説明する。図29は、当該方法(3)によるシェア処理の流れを示したフローチャートである。
(Share processing by method (3))
Next, the share process by the method (3) will be described. FIG. 29 is a flowchart showing the flow of share processing according to the method (3).

同図に示すように、CPU101は、ユーザが選択した写真の情報を取得する(ステップ291)。同図では、上記写真リストから写真P5が選択されたものとする。続いてCPU101は、当該選択された写真P5に写っている人物のリストAを作成する(ステップ292)。   As shown in the figure, the CPU 101 acquires information about the photograph selected by the user (step 291). In the figure, it is assumed that the photograph P5 is selected from the photograph list. Subsequently, the CPU 101 creates a list A of persons appearing in the selected photo P5 (step 292).

続いてCPU101は、過去にシェアした写真P1〜Pnの履歴情報を取得し(ステップ293)、当該写真P1〜Pnに写っていた人物のリストB1〜Bnを作成する。   Subsequently, the CPU 101 acquires history information of the photos P1 to Pn shared in the past (step 293), and creates a list B1 to Bn of the persons shown in the photos P1 to Pn.

続いてCPU101は、上記リストAと、リストB1〜Bnとの間のマッチ度を算出する(ステップ295)。図30は、当該マッチ度の算出処理の詳細を示したフローチャートである。   Subsequently, the CPU 101 calculates the degree of matching between the list A and the lists B1 to Bn (step 295). FIG. 30 is a flowchart showing details of the matching degree calculation processing.

同図に示すように、CPU101は、上記リストAが全て、ある写真XにおけるリストBxに含まれているか否かを判断する(ステップ301)。全て含まれていると判断した場(Yes)、CPU101は、リストBxが全てリストAに含まれているか否かを判断する(ステップ302)。全て含まれていると判断した場合(Yes)には、CPU101は、当該リストAとリストBxとのマッチ度を大に設定する(ステップ303)。   As shown in the figure, the CPU 101 determines whether or not the list A is all included in the list Bx in a certain photo X (step 301). When it is determined that all of them are included (Yes), the CPU 101 determines whether or not the list Bx is all included in the list A (step 302). If it is determined that all are included (Yes), the CPU 101 sets the degree of matching between the list A and the list Bx to a large value (step 303).

上記ステップ302においてリストBxが全てリストAに含まれていないと判断した場合(No)、CPU101は、上記マッチ度を中に設定する(ステップ304)。   If it is determined in step 302 that the list Bx is not included in the list A (No), the CPU 101 sets the matching degree to medium (step 304).

上記ステップ301においてリストAが全てリストBxに含まれていないと判断した場合(No)、CPU101は、上記マッチ度を小に設定する(ステップ305)。   If it is determined in step 301 that the list A is not included in the list Bx (No), the CPU 101 sets the match degree to a small value (step 305).

CPU101は、以上の処理を、全ての写真B1〜Bnについて実行する。   CPU101 performs the above process about all the photographs B1-Bn.

図29に戻り、CPU101は、算出したマッチ度が所定の値よりも高いか否かを判断し(ステップ296)、高い場合(Yes)、過去にシェアした写真Pxをシェアした人物の情報を取得する(ステップ297)。そしてCPU101は、そのシェアした人物に、上記マッチ度に応じたシェア候補ポイントを加算する(ステップ298)。   Returning to FIG. 29, the CPU 101 determines whether or not the calculated degree of matching is higher than a predetermined value (step 296). If it is higher (Yes), the CPU 101 obtains information on the person who shared the photo Px shared in the past. (Step 297). Then, the CPU 101 adds share candidate points corresponding to the degree of match to the shared person (step 298).

図31は、上記シェア履歴を示した図であり、図32は上記シェア候補ポイントの算出条件を示した図である。また図33は、上記シェアポイントの算出結果を示した図であり、図34はシェア候補リスト画面90の表示例を示した図である。   FIG. 31 is a diagram showing the share history, and FIG. 32 is a diagram showing calculation conditions for the share candidate points. FIG. 33 is a diagram showing the calculation result of the share points, and FIG. 34 is a diagram showing a display example of the share candidate list screen 90.

図31〜図33に示すように、例えば、過去にシェアした写真●と、選択された写真P5とは、写っている人が完全に一致しているため(マッチ度:大)、当該写真●をシェアした人物B及び人物Iにはシェア候補ポイントが5ポイント加算される。また過去にシェアした写真■と、写真P5に写っている人物以外の人物が写っているため(マッチ度:中)、当該写真■をシェアした人物人物B及び人物Iにはシェア候補ポイントが3ポイント加算される。また選択された写真P5は、過去にシェアした写真P6、P2、P7に写っている人物と比べてそれぞれ人物が不足しているため(マッチ度:小)、それらのP6、P2、P7に写っている人物C、J、B、C、Dにはそれぞれ1ポイントが加算される。   As shown in FIG. 31 to FIG. 33, for example, the photograph ● shared in the past and the selected photograph P5 are completely the same in the photographed person (match level: large), so the photograph ● The share candidate points are added to the person B and the person I who share the above. In addition, since the photograph ■ shared in the past and a person other than the person shown in the photograph P5 are shown (match level: medium), the person B and the person I who shared the photograph ■ have 3 share candidate points. Points are added. In addition, the selected photo P5 is deficient in the number of people compared to the photos P6, P2 and P7 shared in the past (the degree of match is small), so that it is shown in those P6, P2 and P7. One point is added to each of the persons C, J, B, C, and D who are present.

図34に示すように、例えばシェア候補ポイントが5ポイント以上である人物については、シェアチェックボックス94がONに設定されて表示される。   As shown in FIG. 34, for example, for a person with 5 or more share candidate points, the share check box 94 is set to ON and displayed.

以上の方法(3)の処理により、CPU101は、ユーザがシェアしたい写真P5に写っていないがシェアしたい人(人物B及びI)にチェックをつけることができた。   Through the process of the above method (3), the CPU 101 can check the people (persons B and I) who are not in the photo P5 that the user wants to share but want to share.

(登録人物リストの整理)
本実施形態において、PC100は、上記登録人物リストを定期的に整理することができる。すなわち、上述したように、PC100は、上記登録人物リストにおいて、一定期間に追加された写真に写っておらず、かつ、名前やメールアドレスが上記登録人物リストに登録されていない人物を当該登録人物リストから削除することができる。図35は、当該登録人物リストからのデータの削除処理の流れを示したフローチャートである。
(Organization of registered person list)
In the present embodiment, the PC 100 can regularly organize the registered person list. That is, as described above, the PC 100 adds a person who is not shown in the photograph added for a certain period in the registered person list and whose name or email address is not registered in the registered person list. Can be deleted from the list. FIG. 35 is a flowchart showing the flow of processing for deleting data from the registered person list.

同図に示すように、CPU101は、まず登録人物リストの最終更新日時情報を取得する(ステップ331)。続いてCPU101は、当該登録人物リスト中の各人物について、上記最終更新日時を基に、所定期間更新されていないか否かを判断する(ステップ332)。そして、所定期間更新されていないと判断した場合(Yes)、CPU101は、当該人物に関する登録事項を登録人物リストから削除する。   As shown in the figure, the CPU 101 first acquires the latest update date / time information of the registered person list (step 331). Subsequently, the CPU 101 determines whether or not each person in the registered person list has been updated for a predetermined period based on the last update date and time (step 332). If it is determined that the information has not been updated for a predetermined period (Yes), the CPU 101 deletes the registered items related to the person from the registered person list.

この処理により、PC100は、例えば写真に通りすがりで一度写ってしまっただけの人物のデータを削除することができる。したがってPC100は、ユーザに関係のない人物が誤って送信先候補として提示されてしまうのを防ぐことができる。また、仮に削除された人物がユーザに関係のある人物であったとしても、新たに追加された写真にその人物が写っていれば、PC100は当該人物を再び登録人物リストに追加することができる。   By this process, the PC 100 can delete the data of a person who has been captured once, for example, by passing through a photograph. Therefore, the PC 100 can prevent a person unrelated to the user from being erroneously presented as a destination candidate. Further, even if the deleted person is a person related to the user, the PC 100 can add the person to the registered person list again if the person appears in the newly added photo. .

[まとめ]
以上説明したように、本実施形態によれば、PC100は、写真から顔認識処理により抽出された顔画像情報を基に生成された登録人物リスト内の人物について、上記方法(1)〜(3)によりシェア候補ポイントを算出し、所定値以上のシェア候補ポイントを有する人物に関する情報を、ユーザが選択した写真の送信先候補としてユーザに提示することができる。これによりPC100は、ユーザがシェアを望む写真に写っているか否かに関わらず、当該写真を送信すべき送信先を適切に判断し、ユーザに関係する人物に当該写真を容易にシェアさせることができる。
[Summary]
As described above, according to the present embodiment, the PC 100 uses the methods (1) to (3) for the persons in the registered person list generated based on the face image information extracted from the photograph by the face recognition process. ) To calculate share candidate points, and present information about a person who has a share candidate point equal to or greater than a predetermined value to the user as a destination candidate for the photo selected by the user. Accordingly, the PC 100 can appropriately determine a transmission destination to which the photograph is to be transmitted regardless of whether or not the photograph is desired to be shared by the user and easily share the photograph with a person related to the user. it can.

[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
[Modification]
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

上述の実施形態においては、本発明を、デジタル写真画像をシェアする場合に適用した例を示した。しかし、シェアの対象となるコンテンツはデジタル写真画像に限られない。   In the above-described embodiment, an example in which the present invention is applied to sharing a digital photographic image has been shown. However, the content to be shared is not limited to digital photo images.

例えばプライベートコンテンツとして、デジタルビデオレコーダで撮影された動画像や、ICレコーダにより録音された音声がシェア対象とされてもよい。動画像の場合、上記デジタル写真画像(静止画像)と同様に、撮影された動画像の各フレームから顔画像が抽出され、上述と同様の処理によりシェアが実行される。音声の場合も、例えば録音データから声紋が解析され、上述と同様の処理によりシェアが実行される。   For example, as a private content, a moving image shot by a digital video recorder or a sound recorded by an IC recorder may be targeted for sharing. In the case of a moving image, a face image is extracted from each frame of the captured moving image, and sharing is performed by the same processing as described above, as in the case of the digital photograph image (still image). In the case of voice, for example, a voiceprint is analyzed from recorded data, and sharing is executed by the same processing as described above.

また、パブリックコンテンツとして、PVR(Personal Video Recorder)等で録画された放送番組がシェア対象とされてもよい。放送番組の場合、番組メタデータから出演者情報が取得され、当該出演者と、ユーザの関係者とが同次元で登録人物リストに登録される。したがって、出演者と、ユーザやその関係者も含めた人間関係メタDBが生成される。例えば、ユーザがある番組を録画した場合、ユーザからその番組の出演者に対する関係強度が加算される。また映画コンテンツにおける監督や、アニメコンテンツにおけるキャラクター、声優、監督も上記出演者と同様に扱われる。この場合、シェア対象のコンテンツに写っている人物自身(出演者等)にはコンテンツがシェアされない点が上述の実施形態と異なる。また、上記方法(1)〜(3)のうち、方法(1)は用いられない。さらに、上記出演者等が登録人物リストに登録される場合、メールアドレスは登録されず、また登録の要否がユーザに確認されることなく、番組メタデータから自動的に登録される。   As public content, broadcast programs recorded by PVR (Personal Video Recorder) or the like may be targeted for sharing. In the case of a broadcast program, performer information is acquired from the program metadata, and the performer and related parties of the user are registered in the registered person list in the same dimension. Therefore, the human relation meta DB including the performer, the user, and the related parties is generated. For example, when a user records a certain program, the strength of the relationship from the user to the performer of the program is added. Directors in movie content and characters, voice actors, and directors in anime content are treated in the same way as the above performers. In this case, it differs from the above-described embodiment in that the content is not shared with the person (performer or the like) reflected in the content to be shared. Of the methods (1) to (3), the method (1) is not used. Furthermore, when the performers etc. are registered in the registered person list, the e-mail address is not registered, and it is automatically registered from the program metadata without confirming the necessity of registration by the user.

このように放送番組がシェア対象とされることで、例えばユーザ自身やその友人がどの俳優やタレントのファンなのかが分かる。また、番組が録画されるだけで、俳優やタレント同士の人間関係が上記人間関係メタDBとして作成されるため、ユーザの興趣の向上も図られる。   In this way, broadcast programs are targeted for sharing, so that, for example, it is possible to know which actors and talent fans the user himself / her and their friends are. Moreover, since the human relationship between actors and talents is created as the human relationship meta-DB just by recording the program, the user's interests can be improved.

また同じくパブリックコンテンツとして、電子書籍端末で再生可能な書籍コンテンツがシェア対象とされてもよい。この場合、上記放送番組の場合と同様に、書籍メタデータから作者やキャラクターに関する情報が登録人物リストに登録され、また作者やキャラクター自身にはコンテンツがシェアされず、上記方法(1)は用いられない。   Similarly, book content that can be played back on an electronic book terminal may be targeted for sharing as public content. In this case, as in the case of the broadcast program, information about the author and the character is registered in the registered person list from the book metadata, and the content is not shared with the author or the character itself, and the method (1) is used. Absent.

このように電子書籍コンテンツがシェア対象とされることで、例えばユーザ自身やその友人がどの作者やキャラクターのファンなのかが分かる。また、ユーザが電子書籍端末で読書をするだけで、作者やキャラクター同士の人間関係が上記人間関係メタDBとして作成されるため、ユーザの興趣の向上も図られる。   In this way, electronic book contents are targeted for sharing, and for example, it is possible to know which author or character fan the user himself or his friend is. Moreover, since the user's relationship between authors and characters is created as the above-described human relationship meta-DB just by reading with the electronic book terminal, the user's interest can be improved.

上述の実施形態では、PC100内で生成された人間関係メタDBを基にシェアが実行されたが、例えばSNS(Social Network Service)等、ネットワーク上で構築されている人間関係メタデータがシェアに用いられてもよい。例えば、いわゆるコミュニティやメーリングリスト等の登録者情報を基に人間関係メタDBが生成されてもよい。   In the above-described embodiment, sharing is executed based on the human relationship meta DB generated in the PC 100. However, human relationship metadata built on the network such as SNS (Social Network Service) is used for the share. May be. For example, the human relationship meta DB may be generated based on registrant information such as a so-called community or mailing list.

また、上述の実施形態では、PC間でメールアドレスを利用してシェアが実行されたが、例えば、あるユーザのデジタルカメラで写真が撮影された場合、無線LAN等により、近傍の友人のデジタルカメラに当該写真がシェアされてもよい。この場合、シェア対象の写真に時間的に近い写真に写っている人物にシェア候補ポイントが加算される。   In the above-described embodiment, sharing is performed between PCs using an e-mail address. For example, when a photograph is taken with a digital camera of a certain user, a digital camera of a nearby friend by wireless LAN or the like. The photo may be shared. In this case, share candidate points are added to a person shown in a photograph that is close in time to the share target photograph.

また、例えばユーザ自身や家族を含むホームサーバの使用者が登録人物リストに登録され、それに対応して当該ホームサーバのアドレスが登録されている場合、ユーザは、上記シェアの手法を用いて、ホームサーバへ写真を蓄積させることもできる。またユーザは、写真自体ではなくURLをシェア対象とすることで、インターネット上またはLAN上のサーバのオンラインアルバム上に写真をアップロードすることもできる。   For example, when a user of a home server including the user himself or her family is registered in the registered person list and the address of the home server is registered correspondingly, the user uses the above sharing method to You can also store photos on the server. The user can also upload a photo to an online album on a server on the Internet or LAN by making the URL share instead of the photo itself.

上述の実施形態では、上記方法(1)〜(3)により算出された各シェア候補ポイントについて、動的な重みづけが実行された。しかし、当該重みづけは静的なものであってもよい。すなわち、PC100は、シェアソフトがインストールされた時点で重みづけ値を固定し、各方法で出力されるシェア候補ポイントの大きさを調整する。例えば、方法(1)では数万オーダーの値が出力され、方法(2)では数百オーダーの値が出力される場合、PC100は、方法(1)の出力を1/100することで、方法(2)による出力に意味を持たせることができる。また、シェアソフトの開発者が、方法(1)〜(3)の信頼度をそれぞれ解析し、それに応じて重みづけ値を予め調整してからシェアソフトをリリースしてもよい。さらに、シェアソフトのインストール後に、ユーザが試用してみて、方法(1)〜(3)のうちより効果があると判断した方法に重みづけ値を大きく設定できるようにしてもよい。   In the above-described embodiment, dynamic weighting is executed for each share candidate point calculated by the above methods (1) to (3). However, the weighting may be static. That is, the PC 100 fixes the weighting value when the share software is installed, and adjusts the size of the share candidate points output by each method. For example, when a value in the order of tens of thousands is output in the method (1) and a value in the order of several hundreds is output in the method (2), the PC 100 reduces the output of the method (1) to 1/100. Meaning can be given to the output of (2). Further, the developer of the share software may release the share software after analyzing the reliability of each of the methods (1) to (3) and adjusting the weighting value in advance accordingly. Furthermore, after installing the share software, the user may try it, and the weighting value may be set larger for the method that is determined to be more effective among the methods (1) to (3).

上述の実施形態では、PC100は、図6で示したように、登録確認画面上の「今後無視する」ボタン13が押下された場合に、上記登録人物リスト上で上記無視フラグをONに設定していた。しかし、無視フラグをONに設定する手法はこれに限られない。例えばPC100は、上記シェア候補リスト画面90上で当該無視フラグをONに設定してもよい。図36は、この場合のシェア候補リスト画面90を用いたユーザインタフェースの例を示した図である。同図に示すように、当該シェア候補リスト画面90上でいずれかの人物の表示欄にポインタ361が合わされた状態で、例えば右クリック操作が入力された場合、CPU101は、「今後無視する」というテキストが記載されたダイアログボックス362を表示する。そして、当該ダイアログボックス362がさらに例えば左クリックにより選択されると、CPU101は、当該人物について無視フラグをONに設定する。またCPU101は、シェア候補リスト画面90上で、自動的にONに設定されている、ある人物のシェアチェックボックス94をOFFにする操作が入力された場合に、上記ダイアログボックス362を表示してもよい。これによりユーザは、自動的にシェア候補として抽出された人物について、それがシェア候補として相応しくないと判断すれば、当該人物をシェア候補から外すことができるとともに、今後この人物がシェア候補として抽出されることも防ぐことができる。   In the above-described embodiment, as shown in FIG. 6, the PC 100 sets the ignore flag to ON on the registered person list when the “ignore in the future” button 13 on the registration confirmation screen is pressed. It was. However, the method of setting the ignore flag to ON is not limited to this. For example, the PC 100 may set the ignore flag to ON on the share candidate list screen 90. FIG. 36 is a diagram showing an example of a user interface using the share candidate list screen 90 in this case. As shown in the figure, when a pointer 361 is placed on the display column of any person on the share candidate list screen 90 and, for example, a right click operation is input, the CPU 101 says “Ignore in the future”. A dialog box 362 in which text is described is displayed. When the dialog box 362 is further selected by, for example, left clicking, the CPU 101 sets the ignore flag to ON for the person. Further, the CPU 101 may display the dialog box 362 when an operation for turning off the share check box 94 of a certain person that is automatically set to ON is input on the share candidate list screen 90. Good. As a result, if it is determined that the person automatically extracted as a share candidate is not suitable as a share candidate, the user can be excluded from the share candidate and this person will be extracted as a share candidate in the future. Can also be prevented.

31…顔画像情報欄
32…名前欄
33…メールアドレス欄
34…頻出度欄
35…無視フラグ欄
36…最終更新日時欄
43…属性・分類
44…関係強度
90…シェア候補リスト画面
91…シェア実行ボタン
93…シェア候補欄
94…シェアチェックボックス
95…カメラマーク
96…追加マーク
97…メッセージボックス
100…PC
101…CPU
106…表示部
107…入力部
108…記憶部
109…通信部
31 ... Face image information field 32 ... Name field 33 ... Mail address field 34 ... Frequent frequency field 35 ... Ignore flag field 36 ... Last update date field 43 ... Attribute / classification 44 ... Relation strength 90 ... Share candidate list screen 91 ... Share execution Button 93 ... Share candidate field 94 ... Share check box 95 ... Camera mark 96 ... Add mark 97 ... Message box 100 ... PC
101 ... CPU
106 ... Display unit 107 ... Input unit 108 ... Storage unit 109 ... Communication unit

Claims (13)

人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報を記憶する記憶部と、
前記複数のコンテンツのうち少なくとも1つを、前記人物情報に対応する少なくとも1人の人物に関連する装置へ送信し、または、当該コンテンツをネットワーク上の記憶装置へ送信し、かつ、当該記憶装置上の当該コンテンツの所在場所情報を前記人物に関連する装置へ送信する通信部と、
前記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力を受け付ける操作入力部と、
前記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる前記識別情報を認識し、前記所定の関係の強度に応じて、当該認識された識別情報により識別され前記人物情報に含まれる各人物のポイントを算出する制御部と、
第1の値以上の前記ポイントを有する人物の前記人物情報を、当該人物に関連する前記装置へ前記選択されたコンテンツまたは当該選択されたコンテンツの前記所在場所情報を送信するための送信先候補として表示させるために出力する出力部と
を具備する電子機器。
A plurality of contents including identification information for identifying a person, and a storage unit for storing person information regarding the plurality of persons including at least the identification information and a person name corresponding to the identification information;
At least one of the plurality of contents is transmitted to a device related to at least one person corresponding to the person information, or the content is transmitted to a storage device on a network, and on the storage device A communication unit for transmitting the location information of the content to a device related to the person;
An operation input unit for receiving an input of a user operation for selecting at least one content from the plurality of contents;
Recognizing the identification information included in other content having a predetermined relationship with the selected content, and according to the strength of the predetermined relationship, each identified by the recognized identification information and included in the person information A control unit for calculating a person's points;
The person information of the person having the point equal to or greater than a first value is used as a transmission destination candidate for transmitting the selected content or the location information of the selected content to the device related to the person. An electronic device comprising: an output unit that outputs data for display.
請求項1に記載の情報処理装置であって、
前記制御部は、前記送信先候補としての前記人物情報とともに、前記選択されたコンテンツの送信の可否を、前記操作入力部を介して選択させるチェックボックスを表示させ、かつ、前記第1の値よりも大きい第2の値以上の前記ポイントを有する人物の前記人物情報とともに表示される前記チェックボックスを、前記送信が許可された状態で表示させる
電子機器。
The information processing apparatus according to claim 1,
The control unit displays a check box for selecting, via the operation input unit, whether or not the selected content can be transmitted together with the person information as the transmission destination candidate, and from the first value An electronic device that displays the check box displayed together with the person information of a person having the point equal to or larger than the second value in a state where the transmission is permitted.
請求項2に記載の情報処理装置であって、
前記記憶部は、前記人物情報に含まれる人物間の関係の強度を示す人間関係情報を記憶し、
前記制御部は、前記選択されたコンテンツに含まれる前記識別情報を認識し、前記人間関係情報を基に、当該識別情報により識別される人物と、前記人物情報に含まれる人物との関係の強度に応じて前記ポイントを算出する
電子機器。
An information processing apparatus according to claim 2,
The storage unit stores human relationship information indicating the strength of a relationship between persons included in the person information,
The control unit recognizes the identification information included in the selected content, and based on the personal relationship information, the strength of the relationship between the person identified by the identification information and the person included in the personal information An electronic device that calculates the points according to the conditions.
請求項3に記載の電子機器であって、
前記人物関係情報は、各人物が他の人物に向かって有する興味を示す方向情報を有し、
前記制御部は、前記関係の強度及び前記方向情報に応じて前記ポイントを算出する
電子機器。
The electronic device according to claim 3,
The person relation information has direction information indicating the interest each person has toward other persons,
The said control part is an electronic device which calculates the said point according to the intensity | strength of the said relationship, and the said direction information.
請求項2に記載の電子機器であって、
前記コンテンツは、撮影時間情報を有するデジタル写真画像であり、
前記識別情報は前記人物の顔画像であり、
前記制御部は、選択されたデジタル写真画像が有する第1の撮影時間情報から所定時間内の第2の撮影時間情報を有する他のデジタル写真画像に含まれる前記顔画像を認識し、前記第1の撮影時間情報と前記第2の撮影時間情報との差に応じて前記ポイントを算出する
電子機器。
The electronic device according to claim 2,
The content is a digital photographic image having shooting time information,
The identification information is a face image of the person,
The controller recognizes the face image included in another digital photo image having second shooting time information within a predetermined time from the first shooting time information of the selected digital photo image, and An electronic device that calculates the point according to a difference between the shooting time information of the second and the second shooting time information.
請求項2に記載の電子機器であって、
前記コンテンツは、撮影位置情報を有するデジタル写真画像であり、
前記識別情報は前記人物の顔画像であり、
前記制御部は、選択されたデジタル写真画像の第1の撮影位置情報から所定距離内の第2の撮影位置情報を有する他のデジタル写真画像に含まれる前記顔画像を認識し、前記第1の撮影位置情報と前記第2の撮影位置情報との差に応じて前記ポイントを算出する
電子機器。
The electronic device according to claim 2,
The content is a digital photographic image having shooting position information,
The identification information is a face image of the person,
The control unit recognizes the face image included in another digital photo image having second shooting position information within a predetermined distance from the first shooting position information of the selected digital photo image, and An electronic device that calculates the point according to a difference between shooting position information and the second shooting position information.
請求項2に記載の電子機器であって、
前記記憶部は、前記送信先候補の表示に基づいて前記人物に関連する装置へ送信されたコンテンツに関する送信履歴情報を記憶し、
前記制御部は、前記送信履歴情報を基に、前記送信されたコンテンツに含まれる第1の識別情報と、前記選択されたコンテンツに含まれる第2の識別情報とを比較し、当該第1の識別情報と前記第2の識別情報との間の適合度を算出し、当該適合度に応じて、前記コンテンツの送信先の装置に関連する人物の前記ポイントを算出する
電子機器。
The electronic device according to claim 2,
The storage unit stores transmission history information related to content transmitted to an apparatus related to the person based on the display of the transmission destination candidates.
The control unit compares the first identification information included in the transmitted content with the second identification information included in the selected content based on the transmission history information, and compares the first identification information included in the selected content. An electronic device that calculates a fitness between identification information and the second identification information, and calculates the point of a person related to the content transmission destination device according to the fitness.
請求項2に記載の電子機器であって、
前記制御部は、前記コンテンツが前記記憶部に記憶される度に、当該コンテンツに含まれる識別情報を認識し、当該識別情報により識別される人物に関する前記人物情報を生成して前記記憶部に記憶する
電子機器。
The electronic device according to claim 2,
The control unit recognizes identification information included in the content every time the content is stored in the storage unit, generates the personal information related to the person identified by the identification information, and stores the personal information in the storage unit Electronic equipment.
請求項8に記載の電子機器であって、
前記制御部は、
前記コンテンツが前記記憶部に記憶される度に、当該コンテンツに含まれる識別情報を認識し、当該識別情報を仮人物情報として前記記憶部に記憶し、
前記仮人物情報について前記操作入力部により人物名の入力があった場合に当該仮人物情報を前記人物情報として更新し、
前記仮人物情報の記憶後の所定期間内に前記人物名の入力が無く、かつ、前記記憶部に記憶されたコンテンツに当該仮人物情報としての前記識別情報が含まれていない場合に、当該仮人物情報を削除する
電子機器。
The electronic device according to claim 8,
The controller is
Each time the content is stored in the storage unit, the identification information included in the content is recognized, and the identification information is stored in the storage unit as temporary person information.
When the operation input unit inputs a person name for the temporary person information, the temporary person information is updated as the personal information,
If there is no input of the person name within a predetermined period after storing the temporary person information and the content stored in the storage unit does not include the identification information as the temporary person information, An electronic device that deletes personal information.
請求項2に記載の電子機器であって、
前記制御部は、
前記送信先候補として表示された人物情報に対応する前記識別情報が前記選択されたコンテンツに含まれている場合に、前記人物情報とともに第1のマークを表示させ、
前記識別情報が前記選択されたコンテンツに含まれていない場合に、前記人物情報とともに、前記第1のマークとは異なる第2のマーク及び当該人物情報が前記送信先候補として表示されている理由を示す情報を表示させる
電子機器。
The electronic device according to claim 2,
The controller is
When the identification information corresponding to the person information displayed as the transmission destination candidate is included in the selected content, the first mark is displayed together with the person information,
The reason why the second mark different from the first mark and the person information are displayed as the transmission destination candidates together with the person information when the identification information is not included in the selected content. An electronic device that displays information.
請求項2に記載の電子機器であって、
前記制御部は、
前記人物が前記第1の値より大きい第3の値以上のポイントを有する場合、前記選択されたコンテンツを当該人物に関連する装置へ送信し、
前記人物が前記第3の値未満のポイントを有する場合、前記選択されたコンテンツをネットワーク上の記憶装置へ送信し、かつ、当該記憶装置上の当該コンテンツの所在場所情報を当該人物に関連する装置へ送信する
電子機器。
The electronic device according to claim 2,
The controller is
If the person has a point greater than or equal to a third value greater than the first value, the selected content is transmitted to a device associated with the person;
When the person has a point less than the third value, the selected content is transmitted to a storage device on the network, and the location information of the content on the storage device is related to the person Send to electronic equipment.
人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報を記憶し、
前記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力を受け付け、
前記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる前記識別情報を認識し、前記所定の関係の強度に応じて、当該認識された識別情報により識別され前記人物情報に含まれる各人物のポイントを算出し、
所定の閾値以上の前記ポイントを有する人物の前記人物情報を、当該人物に関連する前記装置へ前記選択されたコンテンツまたは当該コンテンツの所在場所情報を送信するための送信先候補として表示させ、
前記表示された送信先候補としての人物情報に対応する人物に関連する装置へ、前記選択されたコンテンツを送信し、または、ネットワーク上の記憶装置へ前記選択されたコンテンツを送信し、かつ、当該記憶装置上の当該コンテンツの前記所在場所情報を前記対応する人物に関連する装置へ送信する
コンテンツ送信方法。
Storing a plurality of pieces of content including identification information for identifying a person, and personal information related to the plurality of persons including at least the identification information and a person name corresponding to the identification information;
Receiving an input of a user operation for selecting at least one content from the plurality of contents;
Recognizing the identification information included in other content having a predetermined relationship with the selected content, and according to the strength of the predetermined relationship, each identified by the recognized identification information and included in the person information Calculate the points of the person,
Displaying the person information of the person having the point equal to or greater than a predetermined threshold as a transmission destination candidate for transmitting the selected content or location information of the content to the device related to the person;
The selected content is transmitted to a device related to a person corresponding to the person information as the displayed transmission destination candidate, or the selected content is transmitted to a storage device on a network, and A content transmission method for transmitting the location information of the content on a storage device to a device related to the corresponding person.
電子機器に、
人物を識別する識別情報を含む複数のコンテンツと、当該識別情報及び当該識別情報に対応する人物名を少なくとも含む、複数の人物に関する人物情報を記憶するステップと、
前記複数のコンテンツから少なくとも1つのコンテンツを選択するユーザ操作の入力を受け付けるステップと、
前記選択されたコンテンツと所定の関係を有する他のコンテンツに含まれる前記識別情報を認識し、前記所定の関係の強度に応じて、当該認識された識別情報により識別され前記人物情報に含まれる各人物のポイントを算出するステップと、
所定の閾値以上の前記ポイントを有する人物の前記人物情報を、当該人物に関連する前記装置へ前記選択されたコンテンツまたは当該コンテンツの所在場所情報を送信するための送信先候補として表示させるステップと、
前記表示された送信先候補としての人物情報に対応する人物に関連する装置へ、前記選択されたコンテンツを送信し、または、ネットワーク上の記憶装置へ前記選択されたコンテンツを送信し、かつ、当該記憶装置上の当該コンテンツの前記所在場所情報を前記対応する人物に関連する装置へ送信するステップと
を実行させるプログラム。
Electronic equipment,
Storing a plurality of contents including identification information for identifying a person, and personal information related to the plurality of persons including at least the identification information and a person name corresponding to the identification information;
Receiving an input of a user operation for selecting at least one content from the plurality of contents;
Recognizing the identification information included in other content having a predetermined relationship with the selected content, and according to the strength of the predetermined relationship, each identified by the recognized identification information and included in the person information Calculating a person's points;
Displaying the person information of the person having the point equal to or greater than a predetermined threshold as a transmission destination candidate for transmitting the selected content or location information of the content to the device related to the person;
The selected content is transmitted to a device related to a person corresponding to the person information as the displayed transmission destination candidate, or the selected content is transmitted to a storage device on a network, and Transmitting the location information of the content on the storage device to a device related to the corresponding person.
JP2010014511A 2010-01-26 2010-01-26 Electronic device, content transmission method and program Expired - Fee Related JP5477017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010014511A JP5477017B2 (en) 2010-01-26 2010-01-26 Electronic device, content transmission method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010014511A JP5477017B2 (en) 2010-01-26 2010-01-26 Electronic device, content transmission method and program

Publications (2)

Publication Number Publication Date
JP2011155385A true JP2011155385A (en) 2011-08-11
JP5477017B2 JP5477017B2 (en) 2014-04-23

Family

ID=44541050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010014511A Expired - Fee Related JP5477017B2 (en) 2010-01-26 2010-01-26 Electronic device, content transmission method and program

Country Status (1)

Country Link
JP (1) JP5477017B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014512710A (en) * 2011-12-16 2014-05-22 エンパイア テクノロジー ディベロップメント エルエルシー Automatic privacy management for image sharing networks
WO2014129652A1 (en) * 2013-02-25 2014-08-28 京セラ株式会社 Mobile terminal apparatus and mobile terminal apparatus control method
JP2014174782A (en) * 2013-03-11 2014-09-22 Casio Comput Co Ltd Image processing device, image processing method and program
JP2015143995A (en) * 2015-02-18 2015-08-06 エンパイア テクノロジー ディベロップメント エルエルシー Automatic privacy management for image sharing networks
CN105095873A (en) * 2015-07-31 2015-11-25 小米科技有限责任公司 Picture sharing method and apparatus
KR20160022630A (en) * 2014-08-20 2016-03-02 삼성전자주식회사 Method for sharing data and electronic device thereof
JP2016507799A (en) * 2012-12-03 2016-03-10 株式会社カカオ Server and method for recommending photo sharing, and device for displaying photo sharing interface area
US9313369B2 (en) 2013-05-31 2016-04-12 Konica Minolta, Inc. Device and method for managing shared data, and computer-readable storage medium for computer program
US9338311B2 (en) 2011-06-14 2016-05-10 Canon Kabushiki Kaisha Image-related handling support system, information processing apparatus, and image-related handling support method
US9977964B2 (en) 2015-07-31 2018-05-22 Fujifilm Corporation Image processing device, image processing method and recording medium
KR20190047079A (en) * 2016-09-19 2019-05-07 알리바바 그룹 홀딩 리미티드 Internet Resource Allocation Method and Device, and Network Red - Envelope Distribution Method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6869809B2 (en) * 2017-05-29 2021-05-12 株式会社Nttドコモ Image estimator
JP6635208B1 (en) 2019-02-22 2020-01-22 日本電気株式会社 Search device, search method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356985A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Camera photographic device and program thereof
JP2005267146A (en) * 2004-03-18 2005-09-29 Nec Corp Method and device for creating email by means of image recognition function
JP2006085266A (en) * 2004-09-14 2006-03-30 Nec Personal Products Co Ltd Digital picture distribution system and digital picture distribution method
JP2009059042A (en) * 2007-08-30 2009-03-19 Olympus Imaging Corp Image handling device, image handling method, and image handling program
JP2009259238A (en) * 2008-03-26 2009-11-05 Fujifilm Corp Storage device for image sharing and image sharing system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356985A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Camera photographic device and program thereof
JP2005267146A (en) * 2004-03-18 2005-09-29 Nec Corp Method and device for creating email by means of image recognition function
JP2006085266A (en) * 2004-09-14 2006-03-30 Nec Personal Products Co Ltd Digital picture distribution system and digital picture distribution method
JP2009059042A (en) * 2007-08-30 2009-03-19 Olympus Imaging Corp Image handling device, image handling method, and image handling program
JP2009259238A (en) * 2008-03-26 2009-11-05 Fujifilm Corp Storage device for image sharing and image sharing system and method

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9338311B2 (en) 2011-06-14 2016-05-10 Canon Kabushiki Kaisha Image-related handling support system, information processing apparatus, and image-related handling support method
US9124730B2 (en) 2011-12-16 2015-09-01 Empire Technology Development Llc Automatic privacy management for image sharing networks
JP2014512710A (en) * 2011-12-16 2014-05-22 エンパイア テクノロジー ディベロップメント エルエルシー Automatic privacy management for image sharing networks
JP2016507799A (en) * 2012-12-03 2016-03-10 株式会社カカオ Server and method for recommending photo sharing, and device for displaying photo sharing interface area
WO2014129652A1 (en) * 2013-02-25 2014-08-28 京セラ株式会社 Mobile terminal apparatus and mobile terminal apparatus control method
JP2014165664A (en) * 2013-02-25 2014-09-08 Kyocera Corp Portable terminal device, program and control method of portable terminal device
US9872127B2 (en) 2013-02-25 2018-01-16 Kyocera Corporation Mobile terminal device, method for controlling mobile terminal device, and recording medium
JP2014174782A (en) * 2013-03-11 2014-09-22 Casio Comput Co Ltd Image processing device, image processing method and program
US9313369B2 (en) 2013-05-31 2016-04-12 Konica Minolta, Inc. Device and method for managing shared data, and computer-readable storage medium for computer program
KR20160022630A (en) * 2014-08-20 2016-03-02 삼성전자주식회사 Method for sharing data and electronic device thereof
WO2016028093A3 (en) * 2014-08-20 2016-04-14 삼성전자주식회사 Data sharing method and electronic device therefor
CN106797543A (en) * 2014-08-20 2017-05-31 三星电子株式会社 Data sharing method and the electronic equipment for it
KR102226820B1 (en) 2014-08-20 2021-03-11 삼성전자주식회사 Method for sharing data and electronic device thereof
US10748005B2 (en) 2014-08-20 2020-08-18 Samsung Electronics Co., Ltd. Data sharing method and electronic device therefor
JP2015143995A (en) * 2015-02-18 2015-08-06 エンパイア テクノロジー ディベロップメント エルエルシー Automatic privacy management for image sharing networks
CN105095873A (en) * 2015-07-31 2015-11-25 小米科技有限责任公司 Picture sharing method and apparatus
CN105095873B (en) * 2015-07-31 2018-12-18 小米科技有限责任公司 Photo be shared method, apparatus
US10313288B2 (en) 2015-07-31 2019-06-04 Xiaomi Inc. Photo sharing method and device
US9977964B2 (en) 2015-07-31 2018-05-22 Fujifilm Corporation Image processing device, image processing method and recording medium
JP2017531975A (en) * 2015-07-31 2017-10-26 小米科技有限責任公司Xiaomi Inc. Photo sharing method, apparatus, program, and recording medium
KR20190047079A (en) * 2016-09-19 2019-05-07 알리바바 그룹 홀딩 리미티드 Internet Resource Allocation Method and Device, and Network Red - Envelope Distribution Method
JP2019530342A (en) * 2016-09-19 2019-10-17 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Internet resource distribution method and apparatus, and network red envelope distribution method
KR102237012B1 (en) 2016-09-19 2021-04-07 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. Internet resource distribution method and device, and network red envelope distribution method
US11223571B2 (en) 2016-09-19 2022-01-11 Advanced New Technologies Co., Ltd. Internet resource distributing method and device, and network red-envelope distributing method

Also Published As

Publication number Publication date
JP5477017B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5477017B2 (en) Electronic device, content transmission method and program
US9665765B2 (en) Tag suggestions for images on online social networks
US9721148B2 (en) Face detection and recognition
US9639740B2 (en) Face detection and recognition
US9531823B1 (en) Processes for generating content sharing recommendations based on user feedback data
JP6109970B2 (en) Proposal for tagging images on online social networks
WO2012137397A1 (en) Content-processing device, content-processing method, content-processing program, and integrated circuit
KR20130139338A (en) Facial recognition
US9521211B2 (en) Content processing device, content processing method, computer-readable recording medium, and integrated circuit
US9405964B1 (en) Processes for generating content sharing recommendations based on image content analysis
US9639778B2 (en) Information processing apparatus, control method thereof, and storage medium
JP7463473B2 (en) Image candidate determination device, image candidate determination method, program for controlling the image candidate determination device, and recording medium storing the program
JP2013239004A (en) Information processing apparatus, information processing method, computer program, and image display apparatus
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
KR101556320B1 (en) Photo contest system based on social participation and evaluation
JP2017037417A (en) Image processor, method and program
JP2015139001A (en) Information processing device, information processing method and program
JP2014182650A (en) Image sharing device, method for controlling image sharing device and program
JP6958795B1 (en) Information processing methods, computer programs and information processing equipment
JP6677527B2 (en) Server device and program
JP6439516B2 (en) Summary data generation program, summary data generation method, and summary data generation device
JP7485893B2 (en) Information processing device, control program, and control method
JP2018022321A (en) Server and program
WO2023120263A1 (en) Information processing device and information processing method
US11290530B2 (en) Customizable, pull-based asset transfer requests using object models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

R151 Written notification of patent or utility model registration

Ref document number: 5477017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees