WO2019082606A1 - コンテンツ管理機器、コンテンツ管理システム、および、制御方法 - Google Patents
コンテンツ管理機器、コンテンツ管理システム、および、制御方法Info
- Publication number
- WO2019082606A1 WO2019082606A1 PCT/JP2018/036730 JP2018036730W WO2019082606A1 WO 2019082606 A1 WO2019082606 A1 WO 2019082606A1 JP 2018036730 W JP2018036730 W JP 2018036730W WO 2019082606 A1 WO2019082606 A1 WO 2019082606A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- content
- contents
- terminals
- terminal
- content management
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000007726 management method Methods 0.000 description 221
- 230000004048 modification Effects 0.000 description 24
- 238000012986 modification Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000010979 ruby Substances 0.000 description 5
- 229910001750 ruby Inorganic materials 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 244000205754 Colocasia esculenta Species 0.000 description 4
- 235000006481 Colocasia esculenta Nutrition 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- LFYJSSARVMHQJB-QIXNEVBVSA-N bakuchiol Chemical compound CC(C)=CCC[C@@](C)(C=C)\C=C\C1=CC=C(O)C=C1 LFYJSSARVMHQJB-QIXNEVBVSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6209—Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Definitions
- the present disclosure relates to an apparatus for accumulating contents such as photographs or moving pictures taken by an individual, and classifying and displaying the contents in an easy-to-understand manner, and a content display method of the apparatus.
- a content management device using a recording card, USB memory, Wi-Fi (registered trademark) or the like, images taken with a digital still camera, video camera, There is a content management device which copies and saves the data on a Hard Disk Drive or the like, and classifies and browses those images.
- the classification of images includes, for example, the order of shooting date, or the classification into objects by image recognition.
- Content management devices are commercialized as devices or as applications.
- the present disclosure provides a content management device that can effectively solve the problems of privacy or confidentiality, and content browsing operability.
- the content management device in the present disclosure includes (a) content generated by shooting by a first terminal that is at least one of a plurality of terminals, (b) time when the content is shot, and (c) the above One or more beacon signals transmitted by radio waves from the second terminal, which is at least one of the plurality of terminals, in the period including the time when the image was taken, excluding the second terminal among the plurality of terminals It is determined that each of the one or more terminals has received the beacon signal within the period, with reference to the storage unit storing the history indicating whether each of the terminals has received and the storage unit. And a managing unit configured to manage the content as allowable content permitted to be presented by the plurality of terminals.
- the content management device can display the content photographed when the plurality of terminals are located within the range of the distance to which the beacon signal of the radio wave can be transmitted and received, as the allowable content that the plurality of terminals can present to manage.
- the owners of each of the plurality of terminals participate in the same event, so the content photographed by the plurality of terminals is the owner of each of the plurality of terminals. It is considered that privacy or confidentiality is not lost even if it is shared among the terminals and presented to the owner of each of the plurality of terminals.
- the content management device can manage content such as video collected from imaging devices which are a plurality of terminals without causing a problem in privacy of the content holder or the photographer or the like.
- management includes controlling to output, display, or record a video to the inside or outside of a group including a video owner or photographer and other users.
- the video includes still images or moving images such as photographs.
- the second terminal transmits the beacon signal at a predetermined time that is repeatedly set, and each of the one or more terminals waits for reception of the beacon signal within a reception waiting period including the predetermined time.
- the history indicating whether or not the beacon signal is received within the reception waiting period may be stored in the storage unit.
- a terminal waits for reception of a beacon only when a beacon signal is transmitted from another terminal, in other words, it is not necessary to wait for reception of a beacon at another time. Therefore, the terminal can suppress power consumption by interrupting the current for waiting for reception, which is supplied to the reception circuit when the beacon signal is not transmitted from another terminal.
- the management unit is configured by a non-photographing period which is a period exceeding a predetermined time length among the periods between the plurality of pieces of content photographing time Grouping the plurality of pieces of content into a plurality of groups to which a predetermined number or more of content belongs, and for each of the plurality of groups, the beacons within a period in which the predetermined number or more of pieces of content belonging to the group are photographed
- the predetermined number or more of contents belonging to the group are managed as allowable contents permitted to be presented by the plurality of terminals, and the predetermined time length And the shooting location of the content shot immediately before or after the period among the plurality of The distance between the user's home the serial plurality of terminals may be greater the larger.
- the content management device uses the time of the non-photographing period used for grouping according to the distance between the photographing location of the contents and the position of the user's home. You can set the length and group content appropriately. Thus, the content management device can appropriately group the content and manage the content while maintaining the privacy or confidentiality of the content, even if the user does not explicitly set the time length of the non-shooting period.
- the content management device in the present disclosure manages a storage unit storing a plurality of contents, a shooting location of each of the plurality of contents, and a character string indicating an area division associated with the plurality of contents. And the management unit increases the area division including the shooting location as the distance between the shooting location of the representative content representing the plurality of contents and the user's home increases, and the character string is output. decide.
- an appropriate character string representing the digest video to be created According to the shooting location of the content.
- the determined character string may be used, for example, as part of the opening animation of the digest movie or the name of the digest movie file.
- the content management device can set an appropriate character string to the digest moving image based on the shooting location of the content.
- the management unit further determines the character string by reducing the area division including the shooting location, as the degree of recognition of the shooting location of the representative content representing the plurality of pieces of content is higher. The higher the frequency of the user's visit to the shooting location of representative content representing the content, the smaller the area division including the shooting location may be, and the character string may be determined.
- the content management device can easily determine an appropriate character string related to the digest moving image based on the degree of recognition of the shooting location of the content or the frequency of the user's visit to the shooting location of the content.
- the content management device can set an appropriate character string representing a digest video based on the degree of recognition of the shooting location of the content or the frequency of visits. .
- the content management device in the present disclosure is a search target among the plurality of contents and a storage unit storing a plurality of contents and one or more tags associated with each of the plurality of contents.
- a presentation control unit that causes a presentation unit to present one or more tags associated with content; a reception unit that receives an operation by a user on the one or more tags presented by the presentation control unit; Is accepted, one or more contents obtained by searching the plurality of contents using the contents of the tag which is the target of the operation as a search condition are set as a new search target and are the new search target And a management unit that causes the presentation unit to present one or more tags associated with the one or more contents.
- the content management device when the user wants to extract the desired content from the plurality of contents, the content management device presents the user with a tag that can be used as a search condition, making it easy for the user to select a tag. can do.
- the management unit further causes the presenting unit to present information for receiving an operation for reproducing the content when the number of the one or more pieces of content to be presented to the presenting unit is equal to or less than a predetermined number. Good.
- the content management device receives the reproduction operation of the content when the number of the content meeting the search conditions is narrowed to the extent that the user can browse the content in a realistic time.
- Present information In response to the presentation of the information, the user can better recognize that the content management device is ready to receive the playback operation, and can perform the playback operation as necessary. Therefore, the content management device can appropriately provide the appropriate amount of content by better avoiding receiving the operation of browsing the content if it is necessary to present the content meeting the search conditions and it takes an unrealistically long time. Can be enhanced by presenting the content to the user.
- the management unit further causes the presenting unit to present information for receiving an operation to reduce the search condition, when the search condition related to the one or more contents to be presented to the presentation unit is a predetermined number or more. May be
- the content management device presents information for accepting an operation to reduce the search condition when the search condition is relatively increased.
- the user can recognize that the operation to reduce the search condition is accepted in response to the presentation of the information, and can perform the operation to reduce the search condition as necessary. Therefore, the content management apparatus can improve the browsing operability of the content even if the amount is enormous by reducing the search condition based on the operation by the user, thereby causing the user to quickly search for the content.
- a content management system is a content management system including: a plurality of terminals; and a content management apparatus connected to the plurality of terminals and managing the content generated by the plurality of terminals,
- the terminal transmits / receives content to be generated and a beacon signal using radio waves
- the content management device includes (a) content generated by a first terminal which is one of the plurality of terminals, (b ) The beacon signal transmitted by a first terminal of the plurality of terminals within a period including the time when the content is generated and (c) the first terminal of the plurality of terminals In a time zone including a storage unit that stores information indicating whether a terminal other than the terminal is receiving success or failure and a time when the content is generated
- the terminal different from the first terminal among the plurality of terminals, which has successfully received the beacon signal transmitted by the first terminal, is permitted to browse the content generated by the first terminal And a management unit.
- management unit may further permit the second terminal, which has transmitted the beacon successfully received by the first terminal, to view the content generated by the first terminal in the time zone.
- the content management system can use the success or failure of reception of the beacon to more easily determine the terminal for which the content browsing is permitted.
- the management unit further permits, in the time zone, a third terminal that either successfully transmits or receives a beacon with the second terminal to view the content generated by the first terminal. It is also good.
- the content management system can more easily determine the terminal for which the content browsing is permitted, using the success or failure of the transmission or reception of the beacon.
- control method of the content management device in the present disclosure is a control method of the content management device, and (a) the content generated by photographing by the first terminal which is at least one of the plurality of terminals ( b) a beacon signal transmitted by radio wave from the second terminal, which is at least one of the plurality of terminals, within a period including the time when the content was photographed and (c) the time when the photographing was performed,
- the beacon signal is referred to in the period with reference to a storage unit storing a history indicating whether or not each of one or more terminals except the second terminal has been received among the plurality of terminals. It is determined whether each of one or more terminals has received, and when it is determined that each of the one or more terminals has received the beacon signal within the period, the content is determined to be the plurality of terminals. According presentation is managed as an allowable content to be acceptable.
- control method of the content management device in the present disclosure is the control method of the content management device, and the plurality of contents are stored from the storage unit storing the plurality of contents and the shooting locations of the plurality of contents. And the shooting location of each of the plurality of contents, and referring to the plurality of contents and the shooting location of each of the plurality of contents, the character string indicating the area division associated with the plurality of contents is determined In the determination, as the distance between the shooting location of representative content representing the plurality of contents and the user's home is larger, the area division including the shooting location is enlarged, and the character string is determined. Do.
- a control method of a content management device in the present disclosure is a control method of a content management device, and a storage unit that stores a plurality of contents and one or more tags associated with each of the plurality of contents. And causing the presenting unit to present one or more tags associated with the content to be searched among the plurality of contents, and accepting an operation by the user on the one or more tags presented, the operation
- the content of the tag that is the target of the operation is received as a search condition, one or more contents obtained by searching the plurality of contents are set as a new search target, and the new search target is
- the presentation unit is presented with one or more tags associated with the one or more contents.
- the problems of privacy or confidentiality, and content browsing operability can be validated.
- FIG. 1 is an explanatory diagram of a configuration of the content management device according to the first embodiment.
- FIG. 2 is an explanatory diagram of a method of specifying a family event of the content management device according to the first embodiment.
- FIG. 3 is an explanatory diagram of a method of specifying a family event of the content management device according to the first modification of the first embodiment.
- FIG. 4 is an explanatory diagram of a method of specifying a family event of the content management device according to the second modification of the first embodiment.
- FIG. 5 is a first explanatory diagram of the arrival distance of the beacon according to the third modification of the first embodiment.
- FIG. 6 is a second explanatory diagram of the arrival distance of the beacon according to the third modification of the first embodiment.
- FIG. 7A is an explanatory diagram of a method of specifying a family event of the content management device according to the third modification of the first embodiment.
- FIG. 7B is an explanatory diagram of a configuration of a content management device according to a third modification of the first embodiment.
- FIG. 7C is a flowchart showing a control method of the content management device according to the third modification of the first embodiment.
- FIG. 7D is an explanatory drawing showing an example of a beacon received by the terminal according to the third modification of the first embodiment.
- FIG. 7E is an explanatory drawing showing an example of the positional relationship between terminals according to Variation 3 of Embodiment 1.
- FIG. 8A is an explanatory diagram of a configuration of a content management device according to Embodiment 2.
- FIG. 8A is an explanatory diagram of a configuration of a content management device according to Embodiment 2.
- FIG. 8A is an explanatory diagram of a configuration of a content management device according to Embodiment
- FIG. 8B is a flowchart showing a control method of the content management device according to the second embodiment.
- FIG. 8C is an explanatory diagram of a itinerary according to the second embodiment.
- FIG. 9 is an explanatory diagram of a table showing criteria of the address writing level according to the second embodiment.
- FIG. 10 is an explanatory view showing a display example of the opening telop according to the second embodiment.
- 11A is an explanatory diagram of a configuration of a content management device according to Embodiment 3.
- FIG. 11B is a flowchart showing a control method of the content management device according to Embodiment 3.
- FIG. 11C is an explanatory view showing a first display example of the operation screen according to the third embodiment.
- FIG. 12 is an explanatory view showing a second display example of the operation screen according to the third embodiment.
- FIG. 13 is an explanatory diagram of a third display example of the operation screen according to the third embodiment.
- FIG. 14 is an explanatory view showing a fourth display example of the operation screen according to the modification of the third embodiment.
- FIG. 15 is an explanatory view showing a fifth display example of the operation screen according to the modification of the third embodiment.
- the present disclosure aims to provide a content management device and a control method thereof that solve these problems.
- the content management device can display the content collected from a plurality of devices without causing a problem in the privacy of the content holder or the photographer.
- Another object of the present invention is to provide a method and apparatus for realizing an operation easy to be understood by anyone operating the personal content by the content management device or an operation by voice dialogue.
- FIG. 1 is a diagram showing an example of the configuration of an entire system for executing a content management device and its control method in the present embodiment.
- the content management system 1 of FIG. 1 includes one or more terminal devices such as a smartphone or a camera, and a content management device 100.
- the terminal device and the content management device 100 are connected directly via a network such as the Internet, a router, or the like.
- FIG. 1 shows an example in which the content management system 1 includes a father's smartphone 110, a mother's smartphone 120 and a family sharing camera 130 as terminal devices, and these terminal devices are wirelessly connected to the content management device 100. ing.
- the father's smartphone 110 used by the father, the smartphone 120 of the mother used by the mother, and the camera 130 for family sharing, which is a digital still camera used by the entire family, are each personal content such as a photo or video ( I just shoot the content). Also, the smartphone 110 and the like and the camera 130 hold the content generated by shooting, and either directly with the content management device 100 wirelessly or by wire, directly through the Internet 160 or the router 150, or by a USB cable or the like. To transmit or receive video signals, audio signals or control signals.
- the router 150 is, for example, a Wi-Fi router.
- the Internet 160 is connected to various servers (not shown), and transmits and receives the content management device 100 and control signals, video and audio signals, application software, and the like.
- the digital still camera 130 can mount a recording card 140 as a storage medium, and the content card 141 (content G to content L) is recorded on the recording card 140.
- the recording card 140 is, for example, an SD card.
- the content management apparatus 100 is used to centrally collect and manage the content managed for each individual in the family.
- the content management device 100 includes an operation unit 101 that performs various program processing, a microphone (for voice operation) 170 for receiving user operation, a control signal from a remote control (not shown) or a terminal device, a video signal or audio signal such as content. And an input / output unit 104 for outputting an image to a display device such as a television receiver (TV) 180.
- the image output by the input / output unit 104 can be performed by, for example, wired transmission such as HDMI (High-Definition Multimedia Interface) or wireless transmission such as Miracast or Chromecast. Since these configurations are equivalent to general NAS or home appliances, the detailed description thereof is omitted.
- the calculation unit 101 is also referred to as a management unit. Also, the content management device 100 may include the TV 180.
- the content management device 100 picks up an instruction (utterance) by a voice operation from the user with the microphone 170, converts a word related to the voice operation into a control command, and performs processing according to the control command.
- the screen image is updated by the operation unit 101 together with the voice operation.
- These screen images are output from the input / output unit 104 of the content management device 100 to the TV 180 via the HDMI (registered trademark) or the like, and presented to the user.
- the content management system 1 of the present embodiment includes the router 150 for Wi-Fi wireless communication, and each of the terminal devices is the router 150. It is configured to be able to communicate wirelessly (Wi-Fi) with the Internet 160 and each terminal device in the home.
- Wi-Fi wirelessly
- FIG. 1 a case will be described in which videos owned by the father's smartphone 110 and mother's smartphone 120 which are the respective terminal devices are automatically uploaded to the content management device 100 and shared among family members.
- the mother knows about the images of the contents M to R taken mainly by the mother's smartphone 120.
- the contents G to L photographed by the family-shared digital still camera 130 are contents related to an event in which the family participated, and it is considered that the mother may also know.
- the contents A to F which are images owned by the father's smartphone 110 used by the father, are not considered to be known by the mother, and information that is highly confidential to the father even between the family It is also considered to be included.
- the content management device 100 makes it possible to store or display content shared among families while protecting personal privacy or confidentiality, and collectively managing content acquired from a plurality of terminal devices. To realize.
- the content management device 100 performs the following operation.
- FIG. 2 is a diagram for explaining the operation of the content management system 1.
- FIG. 2 shows the contents recorded in the storage unit 103 of the content management device 100 arranged in the order of the time series taken.
- the content photographed with the father's smartphone 110 is described as D1 to D5 in a certain same time zone, and the content photographed with the mother's smartphone 120 in the same time zone is similarly described as M1 to M6.
- the content photographed in the same time zone is described as C1 to C4, and in the order of the time when each content was photographed, the new content is arranged in time series as it goes to the right.
- the “photographed content” is a concept including content newly added by download or the like.
- the operation unit 101 of the content management device 100 determines the order of arrangement from the photographed or recorded date information attached to each content recorded in the storage unit 103.
- the computing unit 101 groups content close to the date and time information of the content of the designated terminal device.
- the designated terminal device is designated as the camera 130. Since the camera 130 is a family shared digital still camera 130, an event which allows the entire family to share some time between capturing the content C1 captured by the digital still camera 130 and capturing the content C2 to the content C4.
- the computing unit 101 specifies the contents D2, M2, M3, and C1 as the contents shot at the family event A. Similarly, for family event B, contents D3, D4, D5, M5, M6, C2, C3, C4 are specified.
- the operation unit 101 determines a specific time slot from the content of the designated terminal device. Then, the content management device 100 determines that the content included in the specific time zone can be managed as content of an event that can be shared within this family. In the present embodiment, the content management device 100 can derive the content that can be shared as a family event from the time of the content captured by the family sharing terminal device.
- the content management device 100 includes the content D2 specified as the content related to the family event A, the content M2, the content M3 and the content C1, and the content D3 specified as the content related to the family event B, the content D4, the content D5, the content M5, The content M6, the content C2, the content C3, and the content C4 can be output from the input / output unit 104 and can be displayed on the TV 180. Since the content relates to a family event, even when the content is displayed on a display device such as the TV 180, the content whose privacy is protected by the photographer is displayed. On the other hand, the content management device 100 determines that the content D1, the content M1 and the content M4 not captured in the specific time zone are the content with high privacy, and the terminal device or the owner thereof is captured in advance. Display on the TV 180 without confirmation.
- the operation unit 101 of the content management device 100 includes the content D 2, the content M 2, the content M 3, the content C 3, the content C 1, the content D 3, the content specified as a family event on each of the father's smartphone 110 and the mother's smartphone 120 which are terminal devices.
- D4, content D5, content M5, content M6, content C2, content C3 and content C4 can be output from the I / F unit 102. These specified content may be transmitted to each terminal of the individual as family sharing content.
- the content management device 100 determines a specific time zone from the shooting time of the content of the designated terminal device among the plurality of recorded content, and determines the specific content, thereby the privacy or confidentiality of the individual. It is possible to display and manage specific content while protecting gender.
- FIG. 1 A modified example of a terminal device capable of managing a plurality of contents while protecting personal privacy or confidentiality will be described.
- the terminal device includes a photographing device capable of recording GPS (Global Positioning System) information of a photographing point at the time of photographing a photo or a moving image such as a digital camera or a smartphone
- GPS Global Positioning System
- the GPS information of the shooting point more generally means position information of the shooting point, and includes, for example, information indicating latitude information and longitude information.
- Location information of a shooting point for example, GPS information
- video content such as a photo transmitted from the smartphone 110 or 120 or the camera 130 of the terminal device of FIG. Multiple content is recorded.
- the computing unit 101 of the content management device 100 reads GPS information and manages content.
- FIG. 3 shows shooting position information according to GPS information shown in the vertical direction of the paper and shooting time information of video shown in the horizontal direction of the paper, in other words, the time when GPS information was measured when shooting.
- the contents captured by the father's smartphone 110 and the mother's smartphone 120 are displayed.
- the content photographed by the father's smartphone 110 is indicated by a white circle
- the content photographed by the mother's smartphone 120 is indicated by a black circle.
- the content shot by the family sharing camera 130 is displayed according to the shooting time.
- Content taken with the camera 130 may have been taken at an event where family members gathered, and in FIG. 3, the time before and after the time taken for the content C1 is taken as family event A, and is taken within a short period of time
- the time including the contents C2, C3 and C4 is referred to as family event B.
- the family event A and the family event B are specified from the shooting time in FIG. 2, but in this modification, it is assumed that the event B in FIG. 3 is a family event in which both the father and the mother participated. It is determined that the event A is not an event in which the father and the mother participated together and is not a family event.
- the contents D3, D4 and D5 photographed by the father recognized as the contents of the family event B determined from the GPS information and the GPS positioning time information (photographing time information), the contents M5 and M6 photographed by the mother, and the family sharing It can be determined that C2, C3 and C4 photographed by the camera 130 can be disclosed (shared) within this family in consideration of privacy and confidentiality.
- the content management device 100 of the present modification can estimate that it is a family event with high accuracy by using GPS information representing a shooting point together with time information.
- the GPS information is often embedded in the corresponding file in the form of, for example, one of EXIF metadata in the case of a photo, and one of QuickTime metadata in the case of a moving image. Therefore, the content management device 100 can display and manage specific content while protecting the privacy or confidentiality of the individual.
- FIG. 4 is a diagram for explaining a method of detecting an event from stored personal content.
- the content handled here is determined to have no problem in privacy or secrecy in advance sharing among families.
- FIG. 4A shows a series of photographed pictures or moving pictures arranged in order of photographing time based on the photographing time information added to each. If there is another photo or video within the T1 time period before or after the photo shooting time of each photo or video, the operation unit 101 of the content management device 100 belongs to one group as a photo in the same event. Do the process as follows. In other words, the computing unit 101 divides the photo or video into a plurality of groups according to a period (also referred to as a non-shooting period) exceeding a predetermined time T1 among the periods between the shooting times of each photo or video.
- a period also referred to as a non-shooting period
- the computing unit 101 puts together the photos or videos belonging to the group 1 Process to register as one event.
- a moving image can be counted, for example, as one photo with a playback time of M seconds.
- the event detection processing is completed, and the result is recorded and registered in the storage unit 103 as a database.
- the computing unit 101 determines that the event detected in the detection process includes a picture or a moving picture taken at a long distance (XKm or more) from home or taken outside the country Then, the time length of the non-photographing period, which is T1 time, is extended to T2 longer than T1, and the processing is performed so that the photo or moving image belongs to the group again.
- the time length of the non-photographing period is set large.
- the photographing interval is 12 hours (T1) or more
- the calculation is performed with the time length of the non-photographing period as 24 hours (T2).
- overseas travel which is one event, as one event, and collectively manage contents such as photos or moving pictures taken at this event as a group.
- the computing unit 101 loads a plurality of contents generated by a plurality of terminals, there is no single non-shooting period exceeding a predetermined time length among the shooting time intervals of the plurality of contents.
- the contents continuous at a plurality of shooting time times are grouped as a plurality of groups to which a predetermined number or more of contents belong.
- the predetermined time length is longer as the distance between the shooting location of the content and the home of the owner of the terminal device (shooting device) of the content is longer.
- the predetermined time length may be long when the country in which the content is photographed is different from the country in which the owner of the terminal device (photographing device) of the content is located.
- the content management apparatus 100 changes the method of putting together the contents according to the photographing time and the photographing place (the distance from the home, the photographed country), and sets a series of correlated contents as the same group. I can give it up. As described above, by giving up highly correlated content, it is possible to consider privacy or confidentiality when collectively displaying and managing content that is one family event.
- a beacon signal of a predetermined wireless communication standard (hereinafter, also simply referred to as a beacon) as a clue to know that the smartphone has approached.
- a beacon of BLE Bluetooth (registered trademark) Low Energy) that is a wireless communication standard (hereinafter, also referred to as a BLE beacon)
- BLE beacon includes identification information (UUID) for identifying a beacon transmitter, and auxiliary identification information (Major, Minor) for more detailed identification within the same UUID. include.
- This identification information is shared in advance between the sending device and the receiving device of the BLE beacon, thereby detecting whether the receiving device is in close proximity to the sending device.
- FIG. 6 shows a table in which when the father's smartphone 110 could receive the beacon transmitted from the mother's smartphone 120 and the beacon transmitted from the son's smartphone 190 and the distance estimation at that time was recorded as a history ing.
- the device receiving the beacon continues detection of the beacon having the specific identification information (UUID), and estimates the distance from the beacon transmitting device based on the beacon radio wave intensity when it can be detected.
- UUID specific identification information
- the positional relationship between the sending device and the receiving device is determined in multiple levels. More specifically, as shown in FIG. 5, the "Immediate", a distance within about 1 m if the receiving device and the receiving device are easily obtained when the distance between the transmitting device and the receiving device is within a few cm. If the reception strength is likely to be obtained in the case of “Near”, if the reception strength is likely to be obtained when the distance is within about 10 m, “Far”, and if the beacon can not be detected, “Unknown” We classify position relations as ".
- a beacon is transmitted, for example, at 0 seconds per minute by the mother's smartphone 120 and the son's smartphone 190. Then, by the application installed on the father's smartphone 110, in the beacon transmission time zone (near 0 minutes per minute), it takes a reception waiting state to receive the beacon from the mother's smartphone 120 and the son's smartphone 190, and the result is Record.
- the father's smartphone 110 detects the beacon transmitted by the mother's smartphone 120 and the son's smartphone 190 from 19:02 on August 12, 2016 to 19: 8 on the same day. And the reception intensity is determined, and the result of having determined the positional relationship with mother's smart phone 120 and son's smart phone 190 is described.
- the smartphone 110 of the father and the smartphone 190 of the son were “Far”, that is, the distance within about 10 m.
- the smartphone 110 of the father is separated to a distance where the beacon transmitted by the smartphone 190 of the son does not reach.
- timing adjustment of transmission and reception there is a problem of timing adjustment of transmission and reception, in which the receiving device has to receive a beacon while the transmitting device transmits a beacon. Assuming that the time is synchronized with relatively high accuracy (for example, second accuracy) in both devices, the problem of timing adjustment is that each performs beacon transmission processing and beacon reception processing centered on 0 seconds per minute. Can solve Then, it is possible to suppress the detection failure of the beacon due to the difference in timing or the power consumption due to useless beacon transmission and waiting for reception.
- FIG. 7A is a diagram for explaining the above-described determination processing.
- FIG. 7A shows, as in FIG. 2 of the first embodiment, contents captured by the father's smartphone 110, the mother's smartphone 120, and the family sharing camera 130, arranged in chronological order by shooting time It is. Further, FIG. 7A shows family events A and B specified by the method of specifying a family event in the first embodiment.
- the content management device 100 receives the beacon reception history from the father's smartphone 110, and obtains the beacon reception status and the result of the distance determination between the beacon transmission device.
- the computing unit 101 of the content management device 100 calculates the distance between the father's smartphone 110 and the mother's smartphone 120 from the reception history of this beacon. As a result, the operation unit 101 determines that there is no family event by determining that the father and the mother are not at a specific distance (for example, a distance within 10 m), and determines the accuracy of the presence or absence of the family event. It is possible to raise.
- beacon reception history information in the time zone of event A in FIG. 7A it is assumed from the beacon reception history information in the time zone of event A in FIG. 7A that beacon reception has not been successful even once between the father's smartphone 110 and the mother's smartphone 120.
- operation unit 101 has father's smartphone 110 and mother's smartphone 120 within a specific distance. If it judges that it did not do, it will judge that event A was not a family event.
- the computing unit 101 manages (the content belonging to) the event B as an allowable content for the father and the mother or for the whole family.
- each of the one or more terminals receives the beacon signal within a period when a predetermined number or more of contents belonging to the group are captured.
- a predetermined number or more of the contents belonging to the group are managed as allowable contents permitted to be presented by a plurality of terminals.
- each terminal device measures the distance by transmitting and receiving beacons between the terminal devices, each terminal device stores the beacon data, and the content management device 100 updates the content such as a picture from the terminal device. And beacon reception data of each terminal device. Since the computing unit 101 of the content management device 100 knows the positional relationship of the terminal device from the beacon reception data and determines whether the terminal device has participated in the same event, the relevance of the collected content can be determined in detail. Also, it is possible to accurately determine the presence or absence of content convergence. Therefore, in the present modification, it is realized that the determination or management of display is performed in consideration of privacy or secrecy in the content collected from the plurality of terminal devices.
- the content management device 100 includes the storage unit 103 and the management unit 101A, as shown in FIG. 7B.
- the management unit 101A is realized, for example, by the operation unit 101 in the first embodiment executing a predetermined program using a processor.
- the storage unit 103 includes (a) content generated by shooting by the first terminal, which is at least one of the plurality of terminals, (b) time when the content is shot, and (c) the shooting described above Whether a beacon signal transmitted by radio waves from the second terminal, which is at least one of the plurality of terminals, is received by one or more terminals excluding the second terminal among the plurality of terminals within a period including time A history indicating whether or not it is stored.
- the management unit 101A refers to the storage unit 103, and when it is determined that each of the one or more terminals has received the beacon signal within the above period, the content is a permitted content that can be presented by a plurality of terminals. to manage.
- the management unit 101A may output information for managing the content as the allowable content.
- the first terminal and the second terminal may be the same terminal or different terminals.
- the second terminal may transmit a beacon signal at a predetermined time that is repeatedly set.
- each of the one or more terminals takes a waiting state for reception of a beacon signal within a reception waiting period including a predetermined time, and generates a history indicating whether or not the beacon signal is received within the reception waiting period.
- the generated history is transmitted from each terminal to the content management device 100 and recorded in the storage unit 103.
- FIG. 7C is a flowchart showing a control method of the content management device 100 according to the present modification.
- step S101 the management unit 101A refers to the storage unit 103 and determines whether or not each of one or more terminals has received a beacon signal within the above period. If the management unit 101A determines that each of the one or more terminals has received the beacon signal within the above period, the process proceeds to step S102, otherwise the series of processes shown in FIG. 7C is ended.
- step S102 the management unit 101A manages the content as permitted content that is permitted to be presented by the plurality of terminals.
- step S102 is completed, the series of processes shown in FIG. 7C are ended.
- beacon reception has not been successful between other terminals.
- the management unit 101A connects the pairs (terminals connected by the arrows in FIG. 7E) that succeeded in transmitting and receiving the beacons, and as a result, the terminal group connected by the arrows in FIG. It is judged that it was located near the place where it could reach. Therefore, in this example, it is determined that four terminals 1 and 2, the terminal 2 close to the terminal 1, the terminal 3 and the terminal 4 close to the terminal 2 close to the terminal 1 were close to the time. Also, conversely, it is determined that the terminals 5 and 6 which have not succeeded in transmitting and receiving beacons to any terminal are far enough not to receive the beacon from the terminal 1 or the like. Therefore, in the case of FIG. 7D or FIG.
- the terminal 1, the terminal 2, the terminal 3 and the terminal 4 have participated in the same event even if they share the photographed content. There is little risk of doing so, and their content is managed as allowable content for these terminals (four of terminal 1 to terminal 4). Also, the content may not be managed as an allowable content for the terminal 5 and the terminal 6, and the presentation may be prohibited.
- the management unit 101A includes a first terminal that has captured the content, and terminals that successfully transmitted and received beacons including at least the first terminal within a predetermined time including the time that the first terminal captured the content.
- a set is specified and managed to allow presentation of the content only to the terminals included in the set or only to the owners of the terminals.
- the content management device 100 can effectively solve the privacy or confidentiality problem.
- the content management system 1 includes the plurality of terminals 110 and the like, and the content management device 100 connected to the plurality of terminals 110 and the like and managing the content generated by the plurality of terminals 110 and the like.
- the plurality of terminals 110 and the like transmit and receive content to be generated and a beacon signal using radio waves.
- the content management device 100 includes a storage unit and a management unit.
- the storage unit corresponds to the storage unit 103 described above. Further, the management unit corresponds to the above-described operation unit 101.
- the storage unit includes (a) content generated by a first terminal such as one of a plurality of terminals 110, (b) time when the content is generated, and (c) a period including the time.
- the beacon signal transmitted by the first terminal of the plurality of terminals 110 and the like is stored as information indicating whether the terminals other than the first terminal of the plurality of terminals 110 etc have successfully received or failed. There is.
- the operation unit is a terminal different from the first terminal among the plurality of terminals 110 and the like in the time zone including the time when the content is generated, and successfully receives the beacon signal transmitted by the first terminal.
- the terminal is permitted to view the content generated by the first terminal.
- the management unit may further permit the second terminal, which has transmitted the beacon successfully received by the first terminal, to view the content generated by the first terminal in the time zone.
- the content management system can more easily determine the terminal for which the content browsing is permitted, using the success or failure of reception of the beacon.
- the management unit may further permit, in the above-mentioned time zone, the third terminal that either successfully transmits or receives a beacon with the second terminal to view the content generated by the first terminal.
- the content management system can more easily determine the terminal for which the content browsing is permitted, using the success or failure of transmission or reception of the beacon.
- the second terminal that successfully transmitted and receive beacons with the first terminal and the third terminal successfully transmitted and received beacons with the second terminal within the same period.
- the access permission destination of the content generated by the first terminal is Nth It may be increased to include terminals.
- N represents an integer of 2 or more.
- the content may be content managed by the content management device according to the first embodiment, or may be any other content.
- FIG. 8A is an explanatory diagram of a configuration of the content management device 100 according to the present embodiment.
- the content management device 100 includes a storage unit 103 and a management unit 101A.
- the management unit 101A is realized, for example, by the operation unit 101 in the first embodiment executing a predetermined program using a processor.
- the storage unit 103 stores a plurality of pieces of content and management information (a photographing time, a photographing place, information for specifying an object, and the like) of each of the plurality of pieces of content.
- the management unit 101A determines a character string indicating the area division associated with a plurality of contents.
- the management unit 101A determines the character string by enlarging the area division indicating the shooting location as the distance between the shooting location of representative content representing a plurality of contents and the home of the user is larger.
- the above character string is used, for example, in an opening telop described later. In addition, it can also be used as the name of a directory or folder indicating the storage location of content in the storage unit 103.
- the management unit 101A further determines the character string by reducing the area division indicating the shooting location, as the degree of recognition of the shooting location of the representative content representing the plurality of contents is higher, and / or As the frequency of the user's visit to the shooting location of representative content representing a plurality of contents is higher, the area division indicating the shooting location is made smaller, and the character string is determined.
- FIG. 8B is a flowchart showing a control method of the content management device 100 according to the present embodiment.
- step S201 the management unit 101A captures each of the plurality of contents and the plurality of contents from the storage unit 103 storing the plurality of contents and the shooting locations of each of the plurality of contents. Get the place and.
- the management unit 101A refers to the plurality of contents acquired in step S201 and the shooting locations of each of the plurality of contents, and determines a character string indicating the area division associated with the plurality of contents.
- the management unit 101A determines the character string by enlarging the area division indicating the shooting location of the content as the distance between the shooting location of the content and the home of the user is larger. .
- the management unit 101A may determine the character string by reducing the area division indicating the shooting location of the content as the degree of recognition of the shooting location of the content is higher.
- the content management device 100 can set a character string representing an appropriate place name based on the shooting location of the content, even if the user does not explicitly set an appropriate character string.
- the content management device 100 will be described in detail below.
- the content management device 100 of the present embodiment records video content such as a plurality of photos or moving pictures transmitted from a plurality of terminal devices.
- the content management device 100 acquires the location information at which the image was captured, determines the image whose location captured within the predetermined distance according to the first embodiment or from the location information and sets it as a group, and the image belongs to this group Together to create display content.
- the size of the area division is changed according to the distance between the location information of the video belonging to the group and the specific location on the first screen, and the area name displayed when selected and displayed Change the display.
- FIG. 8C is a diagram showing an itinerary of a certain person on a map.
- the owner (hereinafter referred to as the owner) of the content management apparatus 100 whose home address is Nakanoshima XX-YY, Kita-ku, Osaka, Osaka Prefecture, passes through Narita Airport (Kotogome 1-1, Narita City, Chiba Prefecture) Described as having visited an elementary school in Cairns (Australia Queensland Cairns Paramatta Park Morgray Broad 122 Paramatta State School).
- the owner possesses the smartphone 110 which is a terminal device, and takes a picture or a moving picture at the visiting place.
- the content, such as a photograph or a moving image, shot by the owner is also recorded in the content management device 100.
- the owner can view and enjoy the content recorded using the content management device 100 on the TV 180 which is a display device.
- the present embodiment will be described with reference to FIG.
- the content management device 100 is installed in Osaka Prefecture's father's home, Osaka Prefecture.
- Content such as a photograph or a moving image, which is taken by the father who is the owner and the mother and son who are the family members during the trip, is recorded in the storage unit 103 of the content management device 100.
- the operation unit 101 converts content to which GPS information of each of the smartphone 110 of the terminal device held by the owner, the smartphone 120 of the mother, or the smartphone (not shown) of the son is added, and converts the GPS information into an address.
- the database can be used to obtain the address of the point traveled on a family trip.
- the computing unit 101 edits the content using the GPS information, combines the content as a group for each GPS information, for example, displays a screen introducing this group and the content belonging to the group on the TV 180, and time information It can be arranged and displayed in chronological order in the original.
- an easy-to-understand expression indicating the visited destination changes depending on the distance of the visited destination, the degree of recognition of the visited destination, the number of visits to the visited destination, and the like. More specifically, the ease of understanding and the ease of handling vary depending on how to represent the address of the place where the user is visiting and not visiting very often.
- the content management device 100 uses the information related to the content to be displayed, for example, the information added to the content, to judge how to make the expression displayed on the screen. , Determined by predetermined criteria.
- the place where the content management device 100 is installed is a home, and the content to be displayed is changed depending on the distance between the home and the place information added to the content.
- the position of the home may be explicitly set by the user such as the father or the mother, or the user's smartphone provides the content management device 100 with the content using the home network (for example, WiFi or LAN connection). You may acquire from the position of the said smart phone at the time of doing.
- the position of the user's home is changed by moving or the like, the information indicating the position of the home held by the content management device 100 should also be changed.
- the change of the home position may be explicitly set by the user such as the father or the mother, or the user's smartphone provides the content management device 100 with the content via the home network (for example, WiFi or LAN). You may acquire from the change of the position of the said smart phone at the time.
- the content management device 100 manages the position of the home in the past in association with the time information.
- the home address from January 2000 to December 2002 is Chiyoda-ku AA, Tokyo, and the home address from January 2003 to December 2013 is Osaka.
- the location of the past home is linked with the time information and managed, as in the case of Osaka City BB.
- FIG. 9A shows an example of the first reference.
- the display for introducing the content is determined based on the distance between the photographed place and the home.
- the distance from the photographed place to the home is divided into three ranges of a short distance (for example 10 km or less), an intermediate distance (for example 10 km to 100 km) and a long distance (for example 100 km or more)
- GPS information attached to a photographed picture or moving picture may be determined as the photographing place. Note that setting the address description level to either "fine", “medium” or “rough” as described above means that the area division of the shooting location is "small", “medium” and “large”, respectively. It corresponds to making it to either.
- the address notation level is determined in consideration of the visibility of the visited city or the number of past visits.
- the address notation level can be set to six levels from “1 (most fine)” to “6 (most coarse)”. For example, it is conceivable to use a prefecture name or a country name as an event shooting point in a long distance city with a low degree of recognition. On the contrary, if it is a place which has visited many times in a short distance, it is conceivable to use a ward name, a town name, or a landmark (such as a park name) as an event shooting point.
- the judgment criteria for display are the country name or the city name if there is a publicity regardless of the distance from the home It may be expressed.
- the content management device 100 holds the reference table of (a) or (b) of FIG. 9 in the storage unit 103, and when the computing unit 101 edits the content, the additional information of the content and (a of FIG. Or (b), determine the display when introducing the content.
- FIG. 10 shows an example of an opening telop of the content in which, when a family trip to Cairns, Australia, a plurality of photographs taken during the family trip are edited into one digest video, .
- This opening telop is displayed on the TV 180, for example.
- the operation unit 101 is based on GPS information indicating a shooting location added to the content such as a photograph or a moving image shot by the owner during the family trip, the shooting location of the content is far from home (more than 100 km) I judge that there is. Then, based on the table of the criteria of FIG. 9A recorded in the storage unit 103, the operation unit 101 displays “Prefecture” or “Country” in the display on the opening page when these contents are displayed. Decide to use. As a result, the computing unit 101 determines the notation of the shooting location as "Australia” from the GPS information and displays it as shown in FIG. 10 (b).
- the calculation unit 101 of the content management device 100 obtains statistics of the travel destination of the family from the content recorded in the storage unit 103 and the additional information thereof, counts the number of visits of the travel destination, and stores the statistics in the storage unit 103. ing. When it is determined that the number of visits is equal to or greater than the specific number, it is determined that the travel destination has high visibility.
- the computing unit 101 determines the display of the opening telop by judging from the table of (b) of FIG. 9 based on the distance from the home by the additional information of the content and the degree of recognition.
- the arithmetic operation unit 101 performs imaging with different imaging dates even though the imaging location is the same based on GPS information and imaging date information added to contents of a plurality of photos or moving images recorded in the storage unit 103. If it is determined that there are a plurality of chunks, it is determined that the number of visits to this shooting location is high.
- the operation unit 101 of the content management device 100 is a content related to a place far away from home, or a content related to going abroad, from information added to the content such as a photo or a moving image.
- the operation unit 101 When making a display screen related to, it operates so that the owner, the user or the viewer can display it in an easy-to-understand address notation (here, a famous city name or country name) when viewing the content.
- the computing unit 101 performs processing so as to avoid unfamiliar area names such as "Paramatta Park” or "Mole Gray Broad” related to the shooting location of the content, or geographical name information that is easy to understand You can create and display an opening ticker.
- the content management device of the present invention appropriately switches the speech instruction and the display image required for the operator according to the voice dialogue with the operator, whereby the operator naturally operates the content management device and the utterance content. It can be pronounced without hesitation.
- the voice of the operator is input, voice recognition is performed, and conversion into an operation signal is performed, and video which is a plurality of contents is determined based on the operation signal to form a group.
- a screen displaying a group of speech instructions for collectively operating the belonging video is displayed in the group, voice recognition is performed using voice input by the operator, and attribute information of the operator recorded in advance is specified.
- the speech instruction to be displayed is selected from the attribute information and displayed on the screen.
- the content may be content managed by the content management device according to the first or second embodiment, or any other content.
- a content management device 100 according to the present embodiment will be described.
- the content management device 100 includes a storage unit 103, a presentation control unit 101B, a reception unit 101C, and a management unit 101A.
- the management unit 101A, the presentation control unit 101B, and the reception unit 101C are realized, for example, by the operation unit 101 in the first embodiment executing a predetermined program using a processor.
- the I / F unit 102 may also be used to realize the reception unit 101C.
- the content management device 100 is connected to the presentation unit 180A corresponding to the TV 180 in the first embodiment.
- the presentation unit 180A may be included in the content management device 100.
- the storage unit 103 stores a plurality of contents and one or more tags associated with each of the plurality of contents.
- the tag is additional information about the content, and for example, shooting date and time, shooting location (GPS information, location information), identification information of the subject, facial expression information of the subject (smile level, eye open degree, mouth open degree) , Name of nearby landmark, temperature of the shooting location, humidity, weather, etc.
- the presentation control unit 101B causes the presenting unit 180A to present one or more tags associated with the content to be searched among the plurality of contents.
- the reception unit 101C receives an operation by the user on one or more tags presented by the presentation control unit 101B.
- the managing unit 101A performs a new search for one or more contents obtained by searching a plurality of contents using the content of the tag that is the target of the operation as a search condition. Then, the presentation unit 180A is made to present one or more tags associated with one or more pieces of content to be newly searched.
- the management unit 101A causes the presentation unit 180A to present information for receiving an operation to reproduce the content.
- One example of presentation of information for receiving an operation for reproducing content is to display on the TV 180 a button image for receiving an operation for reproducing content.
- the management unit 101A further causes the presenting unit 180A to present information for receiving an operation to reduce the search condition, when the search condition related to the one or more contents to be presented to the presenting unit 180A is a predetermined number or more.
- One example of presentation of information for receiving an operation for reducing the search condition is to display on the TV 180 a button image for receiving an operation for reducing the search condition.
- FIG. 11B is a flowchart showing a control method of the content management device 100 according to the present embodiment.
- the management unit 101A refers to the storage unit 103 storing the plurality of contents and one or more tags associated with each of the plurality of contents.
- the presentation unit 180A is made to present one or more tags associated with the content to be searched among the contents of the content.
- step S302 the receiving unit 101C receives an operation by the user on the one or more tags presented in step S301.
- step S303 when the operation is accepted, one or more contents obtained by searching a plurality of contents using the contents of the tag which is the target of the operation as a search condition are set as a new search target, and a new search is performed.
- the presentation unit 180A presents one or more tags associated with the one or more pieces of content that is the target of.
- the content management device 100 will be described in detail below.
- the content management device 100 of the present embodiment has a voice recognition function in addition to the content management device 100 of the first and second embodiments.
- the storage unit 103 receives and manages contents such as videos, music and documents possessed by the father's smartphone 110, mother's smartphone 120, and family sharing camera 130, respectively, and plural voice data of the father or mother Is recorded.
- the computing unit 101 executes voice recognition processing by matching with the voice input through the microphone 170.
- attribute information regarding a father, a mother or a family is recorded in the storage unit 103, and the computing unit 101 identifies the attribute information of the speaker when the speaker (operator) is identified by the voice recognition process. .
- the operation unit 101 analyzes the video recorded in the storage unit 103 and the tag added thereto, and collects related videos as a group. Then, the operation unit 101 creates an operation screen used to select a video as a group, and outputs the operation screen to the TV 180 through the input / output unit 104. On the operation screen used for selection, a speech instruction for a speaker (operator) to speak is displayed for each genre.
- icons are displayed for each genre including a plurality of contents collected based on tag information.
- the icon displays the category name of the speech instruction and the number of contents belonging to the group of the category.
- the utterer When the utterer (operator) utters the genre name displayed on the icon to be selected while looking at the screen of the TV 180, the content summarized in the genre is further finely divided into a plurality of genres, and each genre An icon is displayed with the number of contents belonging to and the genre name described.
- the content management device 100 has a voice operation function of controlling various operations by receiving a voice instruction.
- the arithmetic unit 101 matches the audio signal input through the microphone 170 and the I / F unit 102 with the audio data recorded in the storage unit 103, and converts the audio signal into a corresponding operation signal.
- FIG. 11C is a screen displayed on the TV 180 when the content management device 100 is activated, and is an example of an operation screen for operating the content management device 100 by voice.
- the operator calls, for example, "Panasonic” and the microphone 170
- the voice "Panasonic” is input from the microphone 170, and it is recognized as a pre-registered start word (in this case "Panasonic", as shown in FIG.
- the operation screen shown in (a) is displayed on the TV 180.
- an operation screen displaying a GUI (Graphical User Interface) suitable for audio operation is displayed, but when activated by a remote control, a GUI suitable for conventional remote control operation is displayed. You may
- GUI Graphic User Interface
- a voice signal to which the content management device 100 is input is connected through the Internet 160 It may be transmitted to a server (not shown), the server may perform speech recognition, and the recognition result may be returned to the content management device 100.
- the content management device 100 collectively stores a large number of videos of individual contents of a family, so that the display format on the TV 180 is hierarchically and comprehensively selected by date or shooting location. Browsability is poor in GUI.
- the recommended content is presented as a branch (genre) obtained by putting together related photos or videos according to a predetermined condition.
- the content management device 100 analyzes the video tag or video recorded in the storage unit 103 in advance in order to present the recommendation as described above, and each video tag or video scene is related from the analysis result Content that is judged to be highly sexual is put together, and the content is displayed as an icon at the end of a branch as a group.
- the number of genres simultaneously displayed on the screen of the TV 180 is automatically adjusted to 5 to 9 genres in order to enhance the list of displays, and icons are created for each genre and displayed in branches.
- genres assembled in time (“2017” and “recent dad”)
- genres classified in the shooting location (“hirakata park”, “Osaka city)”
- shooting subjects It is automatically selected and determined to be composed of the genre (the eldest son of this family, "Taro", “Group photo” in which a plurality of people collect images taken together), and the like.
- the content management device 100 arranges an icon (also referred to as a “microphone” icon) 1101 imitating a microphone at the center of the screen of the TV 180 to operate the user.
- a message 1108 "Please ask for a keyword to be searched” is displayed as an instruction to urge the user. By this display, the user is notified that any search word is accepted and that the content management device 100 is waiting for a voice operation instruction from the user.
- the computing unit 101 divides recommended content for each genre around the “microphone” icon 1101 as shown in FIG. 11C (b), A screen is displayed showing a branch extending from the "microphone" icon 1101 to the icon of each genre.
- FIG. 11C (b) shows that the content management device 100 displays the “2017” icon 1102, “Taro” icon 1103, “Hikata Park” icon 1104 and “Osaka City” around the “microphone” icon 1101 on the screen of the TV 180.
- the icon 1105, the "group photo” icon 1106, and the “current dad” icon 1107 are displayed.
- Each of the above icons displays a genre name (for example, "2017” or "Taro") and the number of contents belonging to the genre.
- the "2017” icon 1102 means that there are 759 photos or videos.
- the content management device 100 displays in an easy-to-understand manner what genre of content and how many contents are. In addition, by automatically generating and displaying the recommended genre in this manner, it is possible to avoid the problem of being a voice operation and not being able to know what to talk about.
- the calculation unit 101 of the content management device 100 analyzes the content recorded in the storage unit 103, and creates a screen that allows the user or the operator to easily understand the result, and displays the screen on the TV 180.
- branches extend radially from a "microphone" icon 1101 for prompting voice input, and six icons are displayed at the end of each branch indicating the genre name and the number of contents included in the genre.
- a message 1108 "Please ask for a keyword to be found" prompting an operation instruction is displayed at the bottom of the screen. Therefore, the operator can understand selecting a genre name by voice.
- (a) of FIG. 12 additionally adds a phonetic (ruby) to kanji where the genre name of the icon is difficult to read Shows an example displayed.
- a speaker can be specified from a speaker's voiceprint, and estimation of speaker attributes such as gender or age can be made with high accuracy.
- techniques related to speaker identification also exist as described in Patent Documents 2 and 3.
- the operation unit 101 can know from the recorded information how old a child is at home in the home, and can add an appropriate ruby to the genre name according to the child's age. Also, for example, the arithmetic operation unit 101 can generate ruby only when it is estimated that the utterer is a child using speech recognition technology from the voice input by the utterer through the microphone 170. You may also display the appropriate genre name.
- the arithmetic operation unit 101 does not attach a ruby to the kanji of the genre name, and As shown in), kanji can be reduced and displayed from the genre name. In other words, in the above case, the operation unit 101 can adopt and display the description of the genre name with fewer kanji.
- This also estimates the kanji reading ability of the speaker from the date of birth information registered in the content management device 100 or the estimation result of the speaker, and displays the genre name in kanji, kanji and ruby (furigana) It is also possible to select whether to display in or in hiragana. In addition, depending on the age of the audience or speaker, experience of traveling abroad, language skills, etc., the city name will not be displayed in “Cairns” and Katakana, but “Cairns” will be displayed in English as “Cairns”. You may add "Cairns" with katakana on English notation.
- FIG. (A) of FIG. 13 shows a display example in a home where the owner and his / her parents live together.
- the computing unit 101 determines the speaker using voice recognition technology, and when deducing that the current speaker (operator) is the owner's parent, the parent utters Change the category name of the icon so that it is easy.
- the name of the speaker's son is used as the genre name, and the icon is displayed as a “recent western” icon 1301.
- the arithmetic operation unit 101 makes the size of the notation of the genre name larger than that when generally written. Then, the screen where the utterer easily speaks is displayed.
- FIG. 13 is an example of another operation screen, and the genre name of the speech instruction is displayed according to how the family is called. If the current speaker (operator) is presumed to be the owner's child by speech recognition technology and it is found from the family information that the child calls the father "Piro", "the recent dad” will It is also possible to display a "recent piro" icon 1311 in which an icon indicates a genre name storing "recent piro" and a recent father's image.
- the content management device 100 identifies the speaker from the input voice, selects an expression (or term) that is easy to utter from the speaker information, and displays it so that it is easy to speak. It is easy to speak and you can perform unbeatable voice operations.
- FIG. 14 is a diagram for explaining how the screen display is switched along with the selection by the voice operation.
- the search word is narrowed down by search word one by one for each genre, and it is a GUI that can quickly and easily reach the target content.
- icons of genres already narrowed down are displayed, and on the branches extending therefrom, icons of genres for further refinement are displayed.
- FIG. 14B shows the display screen of the TV 180 as a result of the “2017” icon 1402 being selected in the state of FIG. 14A.
- icons 1403 are arranged, in which the expressions “Osaka City” and “2017”, which are current narrowing words, and the total (251 cases) are displayed.
- the icon of the genre that divides 251 cases more efficiently is automatically selected and displayed.
- what is classified into six genres, for example, displayed by the “summer” icon 1404 at the upper right indicates that 93 contents belong to the genre “summer”.
- all content that is originally managed by the content management device 100 is grouped by a keyword related to the location "Osaka City", a keyword related to the shooting time "2017”, and a keyword further detailing the time "summer” It is shown that 93 contents correspond, if it categorizes and narrows down.
- the icons belonging to the selected icon are further classified into a plurality of genres.
- the number of contents belonging to each genre is counted, and an icon indicating the category name of each category and the number of contents included in the category is described on the TV 180. Since the operation unit 101 appropriately determines the number of icons to be displayed on the operation screen from the content or the information added to the content and displays the number on the TV 180, the speaker wants to select by uttering the genre name of the icon. You can narrow down the content more and more.
- the calculation unit 101 determines that the search word has been squeezed by uttering a search word several times by voice operation and the narrowing-down proceeds to a content that the speaker wants to see. If the number of contents included in the category selected by the user is smaller than the specific number (for example, if the total number of contents is less than 300, or the category serving as each branch of the category), the computing unit 101 belongs In the operation screen displayed on the TV 180, an icon different from the icon indicating the category is displayed on the operation screen displayed on the TV 180, and the like.
- FIG. 15 shows the operation screen after the utterer selects the “summer” icon 1404 and speaks from the operation screen of the TV 180 in (b) of FIG. It is indicated in the icon at the center of the screen that the number of contents narrowed down by the speakers in the "Osaka City", "2017” and "Summer” categories is 93 cases.
- the operation screen displays the command in addition to the category icon related to the content. Display the icon. Then, since the operator utters the genre name "Summer" from the operation screen of FIG.
- the "Summer” icon 1402 is selected by the processing unit 101 by the speech recognition processing, and 300 icons belong to it. As it was recognized that there are few, as shown in FIG. 15, four icons of “pool”, “fireworks”, “joto ward and“ taro ”, and“ play ”icon 1502 and“ return ”icon 1503 as control commands. indicate. Unlike the other icons, the "replay” icon 1502 and the “return” icon 1503 are displayed with the operation name enclosed in a double circle, so that the operator can visually recognize.
- the icon displayed here may be any auxiliary information for the operator to perform a voice operation, and is not necessarily the genre name of the stored content divided into groups, and the operator performs the next operation. It is also possible to display names that are likely to be (potentially intended control).
- the display screen of the TV 180 shown in FIG. 15 when the speaker says “play”, the content related to "Osaka City", “2017” and “summer", which is included in the currently selected icon 1501.
- the arithmetic operation unit 101 controls each component of the content management device 100 so that the reproduction of a total of 93 cases starts, and outputs an image or the like to the TV 180.
- the content management device 100 is updated by specifying or estimating the viewer or the operator, and updating the screen display according to the attribute information such as the person's age (knowledge) or expression method (call name). It is possible to provide a natural feel for the person using it.
- a content management method for storing video from a plurality of photographing devices comprising: Acquiring time information when the video was taken; Acquiring location information at which the video was captured; Determining a video in which a time difference photographed from the time information is within a predetermined time and a position photographed according to the location information is within a predetermined distance, and forming a group as a group; A content management method for managing video belonging to the group.
- a content management method for storing video from a plurality of photographing devices comprising: Acquiring the first time information shot from a first video shot by a first shooting device in the video; Acquiring the second time information shot from a second video shot by a second shooting device in the video; Determining the first image having the first time information photographed within a predetermined time from the second time information acquired from the second image, and setting the first image as a group; A content management method for managing video belonging to the group.
- a content management method for storing video from a plurality of photographing devices comprising: Acquiring first location information captured from a first image captured by a first imaging device in the image; Acquiring second location information captured from a second video captured by a second capturing device in the video; Determining the first image having the first place information photographed within a predetermined distance from the second place information acquired from the second image, and forming the first image as a group; A content management method for managing video belonging to the group.
- a content management method for storing video from a plurality of photographing devices comprising: Acquiring first time information captured from a first video shot by a first shooting device in the video; Acquiring second time information captured from a second video captured by a second capturing device in the video; Inputting distance information on a distance between the first imaging device and the second imaging device, From the distance information, the first imaging device and the second imaging device are within a predetermined distance, Determining the first image having the first time information photographed within a predetermined time from the second time information acquired from the second image, and setting the first image as a group; A content management method for managing video belonging to the group.
- An input unit for inputting images from a plurality of photographing devices;
- a storage unit for recording the video;
- An operation unit that determines an image captured within a predetermined time and within a predetermined distance from a group of time information and location information regarding the image stored in the storage unit as a group;
- a content management apparatus comprising: an output unit that collectively outputs a video belonging to the group.
- a first video shot with a first shooting device, a first time information on the time when the first video was shot, a second video shot with a second shooting device, and the second video An input unit for inputting second time information related to the selected time;
- a storage unit that records the first video, the first time information, the second video, and the second time information;
- An operation unit that determines the first image having the first time information captured within a predetermined time from the second time information, and sets the first image as a group;
- a content management apparatus comprising: an output unit that collectively outputs a video belonging to the group.
- a first video shot with a first shooting device, a first location information on a location where the first video was shot, and a second video shot and a second video shot by a second shooting device An input unit for inputting second place information on the place where the A storage unit that records the first video, the first location information, the second video, and the second location information; An operation unit that determines the first image having the first range information captured within a predetermined distance range from the second location information, and sets the first image as a group;
- a content management apparatus comprising: an output unit that collectively outputs a video belonging to the group.
- a content management apparatus comprising: an output unit that collectively outputs a video belonging to the group.
- a content display method for selecting a specific video from a plurality of videos and displaying the selected video Inputting an operator's voice, performing voice recognition and converting it into an operation signal; Determining the plurality of the images based on the operation signal to form a group; Creating a display content for displaying, in the group, a genre name which is a speech instruction for collectively operating a video belonging to the group; And V. inputting the voice of the operator and recognizing the voice to specify attribute information of the operator.
- the content management apparatus and the content method according to the present invention it is possible to appropriately detect a past event of an individual from the viewpoint of privacy or confidentiality from a plurality of recorded contents, or from voice input by voice operation.
- the operator By specifying the operator (speaker), it is useful in an apparatus that utilizes the ability to present speech instructions that are easy for the operator to understand and that are easy to speak, classified according to the content summarized in a group.
- the contents of not only photographs or videos of individuals but also document files such as articles, novels or newspapers, or contents of news programs are classified and displayed based on attribute information so that the operator can easily select them. It can be used for equipment.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
コンテンツ管理機器(100)は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)コンテンツが撮影された時刻と、(c)撮影がなされた時刻を含む期間内に、複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、複数の端末のうちの第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部(103)と、記憶部(103)を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したと判定した場合に、上記コンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する管理部(101A)とを備える。
Description
本開示は、個人が撮影した写真又は動画といったコンテンツを蓄積し、分かり易く分類して表示する機器、およびその機器のコンテンツ表示方法に関するものである。
従来のコンテンツ管理機器として、記録用カード、USBメモリ、または、Wi-Fi(登録商標)などを用いて、デジタルスチルカメラ、ビデオカメラ、またはスマートフォンなどで撮影した映像を、複数の機器からHDD(Hard Disk Drive)等にコピーして保存し、またそれらの映像を分類して閲覧させるコンテンツ管理機器がある。映像の分類には、例えば、撮影日付順、又は、画像認識による被写体ごとへの分類がある。コンテンツ管理機器は、装置として、または、アプリケーションとして商品化されている。
このような機器では、集めて保存した映像を、画面表示部に表示するカレンダー、又は地図の上に配置することで、撮影した日付又は場所に応じて関連する映像に簡単にアクセスするような機能を提供している。
また、画像認識技術の進化により、スマートフォン又はパソコン、クラウドサーバーで家族の顔を元にした整理、つまり日付又は場所ではなく、撮影された被写体の人物、さらには映像の被写体を高度抽象化して特定して、映像を管理することが可能となってきている。
さらに、画像の撮影場所の住所表示に関連する先行技術として、カーナビゲーションシステムにおいて、普段から利用する慣れた道と、よく知らない道とで表示する住所などの粒度を変えることで、分かり易いナビゲーションを行うような技術が知られている(特許文献1参照)。
このような構成のシステムにおいて、家族間でコンテンツの送受信を行う場合、プライバシー性又は機密性、また膨大な量のコンテンツを閲覧する操作性といった問題がある。
そこで、本開示は、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効に解決し得るコンテンツ管理機器を提供する。
本開示におけるコンテンツ管理機器は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部と、前記記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する管理部とを備える。
これによれば、コンテンツ管理機器は、電波のビーコン信号を送受信できる程度の距離の範囲内に複数の端末が位置しているときに撮影されたコンテンツを、当該複数の端末が提示できる許容コンテンツとして管理する。複数の端末が上記範囲内に位置しているときには、複数の端末それぞれの所有者が同一のイベントに参加しているので、当該複数の端末によって撮影されたコンテンツは、複数の端末それぞれの所有者の間で既に共有されており、複数の端末それぞれの所有者に提示されてもプライバシー性又は機密性が損なわれないと考えられるからである。
このように、上記コンテンツ管理機器は、複数の端末である撮像機器から集められた映像などのコンテンツを、当該コンテンツ保有者又は撮影者等のプライバシーにおいて問題とならないように管理することが可能である。なお、管理とは、映像を、映像の保有者又は撮影者と、それ以外のユーザを含むグループの内部又は外部に出力し、または表示し、または記録するために制御することを含む。また、映像とは、写真などの静止画または動画を含む。
また、前記第二端末は、繰り返し設定される所定時刻に前記ビーコン信号を送信し、前記1以上の端末それぞれは、前記所定時刻を含む受信待ち期間内に前記ビーコン信号の受信のための待ち状態をとり、前記受信待ち期間内に前記ビーコン信号を受信したか否かを示す前記履歴を前記記憶部に記憶させてもよい。
これによれば、端末は、他の端末からビーコン信号が送信されるときだけビーコンの受信待ちを行い、言い換えれば、その他の時間にビーコンの受信待ちを行う必要がない。よって、端末は、他の端末からビーコン信号が送信されないときに受信回路に供給する、受信待ちのための電流を遮断することで、電力消費を抑制することができる。
また、前記管理部は、前記複数の端末により複数の前記コンテンツが生成された場合に、複数の前記コンテンツの撮影時刻の間の期間のうち、所定の時間長を超える期間である無撮影期間によって、複数の前記コンテンツを、それぞれに所定数以上のコンテンツが属する複数のグループにグループ化し、前記複数のグループのそれぞれについて、当該グループに属する前記所定数以上のコンテンツが撮影された期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、当該グループに属する前記所定数以上のコンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理し、前記所定の時間長は、前記複数のコンテンツのうち、当該期間の直前又は直後に撮影されたコンテンツの撮影場所と前記複数の端末のユーザの自宅との距離が大きいほど大きくてもよい。
これによれば、コンテンツ管理機器は、撮影時刻に基づいて複数のコンテンツをグループ化するに際して、そのコンテンツの撮影場所とユーザの自宅の位置との距離に応じてグループ化に用いる無撮影期間の時間長を設定し、コンテンツを適切にグループ化することができる。これにより、コンテンツ管理機器は、ユーザが明示的に無撮影期間の時間長を設定しなくても、コンテンツを適切にグループ化し、コンテンツのプライバシー性又は機密性を維持しながらコンテンツを管理できる。
また、本開示におけるコンテンツ管理機器は、複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部と、前記複数のコンテンツに関連する地域区分を示す文字列を決定する管理部とを備え、前記管理部は、前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する。
これによれば、コンテンツ管理機器は、複数のコンテンツを、ユーザーが想起しやすい過去のイベントとして1つに纏めたダイジェスト動画を自動で作成する場合に、作成するダイジェスト動画を代表する適切な文字列を、コンテンツの撮影場所に応じて適切に決定する。決定された文字列は、例えばダイジェスト動画のオープニングテロップやそのダイジェスト動画ファイルの名前の一部として用いられ得る。これにより、ユーザが明示的に適切な文字列を設定しなくても、コンテンツ管理機器は、コンテンツの撮影場所に基づいてダイジェスト動画に適切な文字列を設定することができる。
また、前記管理部は、さらに、前記複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定し、又は、前記複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定してもよい。
これによれば、コンテンツ管理機器は、コンテンツの撮影場所の知名度、又は、コンテンツの撮影場所へのユーザの訪問頻度に基づいて、ダイジェスト動画に関連する適切な文字列を容易に決定し得る。これにより、ユーザが明示的に適切な文字列を設定しなくても、コンテンツ管理機器は、コンテンツの撮影場所の知名度又は訪問頻度に基づいてダイジェスト動画を表す適切な文字列を設定することができる。
また、本開示におけるコンテンツ管理機器は、複数のコンテンツと、前記複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している記憶部と、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部に提示させる提示制御部と、前記提示制御部が提示させた前記1以上のタグに対するユーザによる操作を受け付ける受付部と、前記操作を前記受付部が受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付られている1以上のタグを前記提示部に提示させる管理部とを備える。
これによれば、コンテンツ管理機器は、複数のコンテンツのうちからユーザが所望のコンテンツを抽出したい場合に、検索条件として使用可能なタグをユーザに提示することで、ユーザによるタグの選定をしやすくすることができる。
また、前記管理部は、さらに、前記提示部に提示させる前記1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を前記提示部に提示させてもよい。
これによれば、コンテンツ管理機器は、検索の条件に適合するコンテンツの個数が、ユーザが現実的な時間内にコンテンツを閲覧できる程度に絞られた時点で、コンテンツの再生の操作を受け付けるための情報を提示する。ユーザは、上記情報が提示されたことに応じて、コンテンツ管理機器が再生の操作が受け付けられる状態であることをより良く認識し、必要に応じて再生の操作をすることができる。よって、コンテンツ管理機器は、検索の条件に適合するコンテンツを提示するとすれば非現実的な長い時間を要する場合にコンテンツの閲覧の操作を受けることをより良く回避することによって、適切な量のコンテンツをユーザに提示することでコンテンツの閲覧操作性を高めることができる。
また、前記管理部は、さらに、前記提示部に提示させる前記1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を前記提示部に提示させてもよい。
これによれば、コンテンツ管理機器は、検索の条件が比較的多くなった時点で、検索条件を減らす操作を受け付けるための情報を提示する。ユーザは、上記情報が提示されたことに応じて、検索条件を減らす操作が受け付けられる状態であることを認識し、必要に応じて検索条件を減らす操作をすることができる。よって、コンテンツ管理機器は、ユーザによる操作に基づいて検索条件を減らすことで、ユーザにより素早くコンテンツの検索をさせることで膨大な量となってもコンテンツの閲覧操作性を高めることができる。
また、本開示におけるコンテンツ管理システムは、複数の端末と、前記複数の端末に接続し、前記複数の端末により生成されたコンテンツを管理するコンテンツ管理機器とを備えるコンテンツ管理システムであって、前記複数の端末は、生成するコンテンツと、電波を用いたビーコン信号とを送受信し、前記コンテンツ管理機器は、(a)前記複数の端末の1つである第一端末により生成されたコンテンツと、(b)前記コンテンツが生成された時刻と、(c)前記時刻を含む期間内に、前記複数の端末のうちの第一端末が送信した前記ビーコン信号を、前記複数の端末のうちの前記第一端末以外の端末が受信成功もしくは失敗しているのかを示す情報と、を記憶している記憶部と、前記コンテンツが生成された時刻を含む時間帯において、前記複数の端末のうちの前記第一端末とは異なる端末であって、前記第一端末が送信したビーコン信号を受信成功している端末に、前記第一端末が生成したコンテンツの閲覧を許諾する管理部とを備える。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、前記管理部は、さらに、前記時間帯において、第一端末が受信に成功したビーコンを送信した第二端末に、前記第一端末が生成したコンテンツの閲覧を許諾してもよい。
これによれば、コンテンツ管理システムは、ビーコンの受信の成否を用いて、より容易にコンテンツの閲覧を許諾する端末を決定することができる。
また、前記管理部は、さらに、前記時間帯において、前記第二端末とのビーコンの送信及び受信の何れかが成功した第三端末に、前記第一端末が生成したコンテンツの閲覧を許諾してもよい。
これによれば、コンテンツ管理システムは、ビーコンの送信または受信の成否を用いて、より容易に、コンテンツの閲覧を許諾する端末を決定することができる。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したか否かを判定し、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部から、前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを取得し、取得した前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを参照して、前記複数のコンテンツに関連する地域区分を示す文字列を決定し、前記決定の際には、前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、複数のコンテンツと、前記複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している記憶部を参照して、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部に提示させ、提示させた前記1以上のタグに対するユーザによる操作を受け付け、前記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付られている1以上のタグを前記提示部に提示させる。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
本開示のコンテンツ管理機器によれば、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効することができる。
従来のコンテンツ管理機器において生じ得る、家族間でコンテンツの送受信を行う場合における課題について説明する。
課題の1つは、コンテンツ管理機器に集められて保存される映像などは、個人が日常的に携帯するスマートフォンなどの撮影機器で撮影されたものが多く、プライバシー性又は機密性が高い映像が比較的多いことである。これらのスマートフォンなどが保有する映像を、自動的にコンテンツ管理機器にアップロードして家族間で共有するような場合は、個人で保有するコンテンツが家族内に公開されることとなりプライバシー上で問題が起こることが考えられる。つまり、個人が管理するコンテンツ(個人コンテンツともいう)をコンテンツ管理機器で家族内で一括管理する場合、すなわち家族間で共有して管理する場合には、プライバシー性又は機密性といった問題が発生することになってしまい、これを解消しなければならないという課題がある。
次の課題は、コンテンツ管理機器に集められて保存される映像を表示する場合、特定の1日、もしくは特定の場所に着目し、1つのイベント(又は出来事)としてダイジェスト動画を作成するサービスがある。しかし、複数の日に跨る旅行のような1つのイベントを1つのダイジェスト動画に纏めるようなことは、手動であっても上手くできていなかった。例えば、旅行や子供の運動会といったイベントに対して、それぞれのイベントが旅行なのか、もしくは運動会なのかを認識して、同一のコンテキストにあるイベントだけを抽出して見せるような表示機能はなく、過去の映像を閲覧する際に不便と感じられることがあった。また、例えば、沖縄旅行において撮影した映像を地図で表示すると、閲覧したい沖縄旅行だけでなく過去の沖縄旅行、又は、沖縄出張で撮影した映像等のコンテンツが画面上の沖縄の地図の上に表示され、特定の沖縄旅行だけを見ることができないという問題があり、これを解消しなければならないという課題がある。
本開示はこれらの課題を解決するコンテンツ管理機器及びその制御方法を提供することを目的とする。具体的には、コンテンツ管理機器は、複数の機器から集められたコンテンツを、コンテンツ保有者又は撮影者等のプライバシーにおいて問題とならないように表示することを可能とする。また、複数のコンテンツを、ユーザーが想起しやすい過去のイベントとして1つに纏めたダイジェスト動画を自動で作成し、提供することを可能にする。また、コンテンツ管理機器による個人コンテンツの扱いにおいて、誰が操作しても分かり易い表示、又は、音声対話による操作を実現する方法、及び装置を提供することを目的とする。
以下、本発明の実施の形態について、図面を参照しながら説明する。
なお、以下の実施の形態は、本開示に係る表示装置の一例を示したものに過ぎない。従って本開示は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
また、図面は、本開示を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。
(実施の形態1)
[1-1.構成]
図1は、本実施の形態における、コンテンツ管理機器及びその制御方法の実行のための全体システムの構成の一例を示す図である。
[1-1.構成]
図1は、本実施の形態における、コンテンツ管理機器及びその制御方法の実行のための全体システムの構成の一例を示す図である。
図1のコンテンツ管理システム1では、スマートフォン又はカメラ等の1つまたは複数の端末装置と、コンテンツ管理機器100とを備える。端末装置とコンテンツ管理機器100とは、インターネット等のネットワーク、ルーターを介して、または直接に接続されている。図1は、コンテンツ管理システム1が端末装置として、父のスマートフォン110、母のスマートフォン120および家族共有のカメラ130を備え、これらの端末装置がコンテンツ管理機器100と無線で接続されている例を示している。
父が利用している父のスマートフォン110、母が利用している母のスマートフォン120、家族全員が利用しているデジタルスチルカメラである家族共有のカメラ130は、それぞれ写真又は動画などの個人コンテンツ(単にコンテンツともいう)を撮影する。また、スマートフォン110等及びカメラ130は、撮影により生成したコンテンツを保持していて、いずれもコンテンツ管理機器100と、無線または有線で、インターネット160又はルーター150を介して、またはUSBケーブルなどで直接的に接続されて、映像信号、音声信号または制御信号の送信又は受信を行う。なお、ルーター150は、例えば、Wi-Fiルーターである。インターネット160はいろいろなサーバー(図示せず)に接続され、コンテンツ管理機器100と制御信号、映像音声信号、またはアプリケーションソフト等が送受信される。
また、本実施の形態では、父のスマートフォン110により撮影もしくは管理されているコンテンツ111をコンテンツA~コンテンツF、母のスマートフォン120により撮影もしくは管理されているコンテンツ121をコンテンツM~コンテンツR、家族共有のデジタルスチルカメラ130により撮影もしくは管理されているコンテンツ141をコンテンツG~コンテンツLと記す。デジタルスチルカメラ130は記憶媒体として記録用カード140を装着することが可能であり、記録用カード140にコンテンツ141(コンテンツG~コンテンツL)を記録している。記録用カード140は、例えばSDカードである。
これらのコンテンツは、端末装置の所有者(または使用者)により個々に管理されているが、自身が所有者でないコンテンツを家族間で共有し、全てのコンテンツを一括管理していくためには、家族で共同で使用できるパソコン又はネットワーク(例えばインターネット160)上の巨大ストレージであるNAS(Network―Attached Storage)などへ取り込んで管理する方法がある。本実施の形態のコンテンツ管理システム1では、これらの家族内で個人毎に管理されているコンテンツを一か所に集め、集中的に管理するためにコンテンツ管理機器100を使用する。
コンテンツ管理機器100は、各種プログラム処理を行う演算部101、ユーザー操作を受け付けるためのマイク(音声操作用)170、リモコン(図示なし)又は端末装置からの制御信号、コンテンツ等の映像信号又は音声信号の入出力機能を備えるI/F(インターフェース)部102、コンテンツを保存しておく記憶部103、テレビジョン受像機(TV)180等の表示装置へ画像出力を行う入出力部104などを備える。入出力部104による画像出力は、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)のような有線による伝送、又は、ミラキャスト又はChromecastのような無線による伝送によってなされ得る。これらの構成は一般的なNAS又は家電製品と同等であるため、その詳細説明は省略する。なお、演算部101を、管理部ともいう。また、コンテンツ管理機器100が、TV180を備えていてもよい。
コンテンツ管理機器100は、ユーザーからの音声操作による指示(発話)をマイク170により拾い、その音声操作に係る言葉を制御コマンドに変換し、その制御コマンドに応じた処理を行う。音声操作時に補助情報をTV180に映像として表示するために、音声操作と合わせて画面イメージが演算部101により更新される。これらの画面イメージは、コンテンツ管理機器100の入出力部104からHDMI(登録商標)などを介してTV180へと出力され、ユーザーに提示される。
端末装置とコンテンツ管理機器100などとがデータを通信するために、本実施の形態のコンテンツ管理システム1は、Wi-Fi無線通信用のルーター150を備えており、端末装置のそれぞれはこのルーター150を介して、インターネット160と家庭内の各端末装置と無線(Wi-Fi)で通信できるように構成されている。
[1-2.動作]
次に、コンテンツ管理システム1におけるコンテンツ表示方法についての動作を説明する。
次に、コンテンツ管理システム1におけるコンテンツ表示方法についての動作を説明する。
図1において、それぞれの端末装置である父のスマートフォン110、母のスマートフォン120、カメラ130が保有する映像を自動的にコンテンツ管理機器100にアップロードして家族間で共有する場合について説明する。
この場合、母が主として母のスマートフォン120で撮影したコンテンツM~Rの映像については、母が知っているものである。また、家族共用のデジタルスチルカメラ130で撮影されたコンテンツG~Lについては、家族で参加していたイベントに関わるコンテンツであり、母も知っている可能性があると考えられる。
一方、父が利用する父のスマートフォン110が保有する映像であるコンテンツA~Fについては、母が知っているものとは考えられず、たとえ家族間であっても父にとって機密性の高い情報が含まれることも考えられる。
本実施の形態のコンテンツ管理機器100は、個人のプライバシー性又は機密性を守りながら家族間で共有するコンテンツの保存または表示を可能とし、複数の端末装置から取得したコンテンツを一括に管理することを実現する。
本実施の形態のコンテンツ管理機器100は、以下の動作を行う。
図2は、コンテンツ管理システム1の動作を説明するための図である。図2は、コンテンツ管理機器100の記憶部103に記録されているコンテンツを、撮影された時系列順に並べて表示したものである。ある同一時間帯において、父のスマートフォン110で撮影されたコンテンツをD1~D5と記し、同じく同一時間帯に母のスマートフォン120で撮影されたコンテンツをM1~M6と記し、さらに家族共有のデジタルスチルカメラで同一時間帯に撮影されたコンテンツをC1~C4と記し、それぞれのコンテンツが撮影された時刻の順に、右側に行くほど新しいコンテンツが時系列に従って並べて示した図である。なお、「撮影されたコンテンツ」とは、新たにダウンロードなどで追加されたコンテンツも含む概念である。
コンテンツ管理機器100の演算部101は、記憶部103に記録されているそれぞれのコンテンツに付されている撮影又は記録した日時情報から、並べる順番を決定している。
コンテンツ管理機器100には、事前に特定の端末装置を指定すると、演算部101は指定端末装置のコンテンツの日時情報に近いコンテンツをグループ化する。本実施の形態では、指定端末装置をカメラ130に指定する。これはカメラ130が家族共有のデジタルスチルカメラ130なので、デジタルスチルカメラ130で撮影したコンテンツC1を撮影した時間帯と、コンテンツC2~コンテンツC4を撮影した時間帯とは、何かしら家族全員で共有できるイベントを撮影したものだと考えられ、例えば家族共有のデジタルスチルカメラ130で撮影されたそれぞれのコンテンツC1~C4の前後1時間を含む時間帯を、それぞれ家族イベントA及び家族イベントBの時間帯として設定する。
その結果、演算部101は、家族イベントAで撮影されたコンテンツとして、コンテンツD2、M2、M3、C1を特定する。同様に、家族イベントBについては、コンテンツD3、D4、D5、M5、M6、C2、C3、C4を特定する。
このようにしてコンテンツ管理機器100は、接続される端末装置から全てのコンテンツを記憶部103に取り込んだ後に、演算部101が指定端末装置のコンテンツから特定時間帯を決定する。そして、コンテンツ管理機器100は、特定時間帯に含まれるコンテンツをこの家族内で共有できるイベントのコンテンツとして管理することが可能なコンテンツと判断する。本実施の形態では、コンテンツ管理機器100は、家族イベントとして共有することができるコンテンツを、家族共有の端末装置が撮影を行ったコンテンツの時刻から導き出すことができる。
コンテンツ管理機器100は、家族イベントAに関わるコンテンツとして特定したコンテンツD2、コンテンツM2、コンテンツM3及びコンテンツC1、並びに、家族イベントBに関わるコンテンツとして特定したコンテンツD3、コンテンツD4、コンテンツD5、コンテンツM5、コンテンツM6、コンテンツC2、コンテンツC3及びコンテンツC4を、入出力部104から出力し、TV180に表示させることが可能である。家族イベントに関するコンテンツであるので、TV180などの表示装置に表示しても、撮影者のプライバシーが守られたコンテンツの表示が行われる。一方、コンテンツ管理機器100は、特定時間帯に撮影されていないコンテンツD1、コンテンツM1及びコンテンツM4を、プライバシー性が高いコンテンツであると判断し、事前に取り込んだ端末装置、またはその所有者に対して確認することなくTV180に表示することを禁止する。
また、コンテンツ管理機器100の演算部101は、端末装置である父のスマートフォン110、母のスマートフォン120のそれぞれに、家族イベントとして特定したコンテンツD2、コンテンツM2、コンテンツM3、コンテンツC1、コンテンツD3、コンテンツD4、コンテンツD5、コンテンツM5、コンテンツM6、コンテンツC2、コンテンツC3及びコンテンツC4をI/F部102から出力することができる。これらの特定されたコンテンツは、家族共有のコンテンツとして個人の各端末装置に送信され得る。
[1-3.効果など]
このようにコンテンツ管理機器100は、記録されている複数のコンテンツのなかで指定端末装置のコンテンツの撮影時間から特定時間帯を決定し、そして特定コンテンツを決定することで、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
このようにコンテンツ管理機器100は、記録されている複数のコンテンツのなかで指定端末装置のコンテンツの撮影時間から特定時間帯を決定し、そして特定コンテンツを決定することで、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
[1-4.実施の形態1の変形例1]
個人のプライバシー性又は機密性を守りながら複数のコンテンツを管理することが可能な端末装置の変形例を説明する。本変形例では、端末装置としてデジタルカメラ又はスマートフォンのように写真又は動画の撮影時に撮影地点のGPS(Global Positioning System)情報を記録できる撮影機器が含まれる場合に、その端末装置で撮影された映像等のコンテンツに付与された撮影地点のGPS情報から端末装置のユーザー(または撮影者)のイベントを特定することで、個人のプライバシー性又は機密性を守りながらコンテンツ管理を実行する。ここで、撮影地点のGPS情報は、より一般的には撮影地点の位置情報を意味し、例えば緯度情報及び経度情報を示す情報を含む。
個人のプライバシー性又は機密性を守りながら複数のコンテンツを管理することが可能な端末装置の変形例を説明する。本変形例では、端末装置としてデジタルカメラ又はスマートフォンのように写真又は動画の撮影時に撮影地点のGPS(Global Positioning System)情報を記録できる撮影機器が含まれる場合に、その端末装置で撮影された映像等のコンテンツに付与された撮影地点のGPS情報から端末装置のユーザー(または撮影者)のイベントを特定することで、個人のプライバシー性又は機密性を守りながらコンテンツ管理を実行する。ここで、撮影地点のGPS情報は、より一般的には撮影地点の位置情報を意味し、例えば緯度情報及び経度情報を示す情報を含む。
本変形例の構成について、図1のシステムを用いて説明する。図1の端末装置のスマートフォン110、120又はカメラ130から送信される写真などの映像コンテンツには、それぞれ撮影地点の場所情報、例えばGPS情報が付加されており、コンテンツ管理機器100の記憶部103に複数のコンテンツが記録されている。コンテンツ管理機器100の演算部101は、GPS情報を読み取り、コンテンツを管理する。
図3は、紙面の上下方向に示されるGPS情報に応じた撮影位置情報と、紙面の水平方向に示される映像の撮影時刻情報、言い換えれば、撮影したときにGPS情報を測位した時刻とに応じて、父のスマートフォン110と母のスマートフォン120とでそれぞれ撮影したコンテンツを表示している。父のスマートフォン110で撮影されたコンテンツを白丸で記し、母のスマートフォン120で撮影されたコンテンツを黒丸で記している。また、家族共有のカメラ130で撮影したコンテンツを撮影時刻に応じて表示している。カメラ130で撮影したコンテンツは、家族が集まったイベントで撮影された可能性があり、図3ではコンテンツC1の撮影された時間の前後の時間を家族イベントAとし、短期間内に撮影されているコンテンツC2、C3およびC4を含む時間を家族イベントBと称する。
図3からは、父のスマートフォン110で撮影されたコンテンツD1、D2は、GPS情報から父が会社で撮影したことが想定され、母のスマートフォン120で撮影されたコンテンツM1は母が自宅で撮影されたものと想定され得る。
また、父のスマートフォン110と母のスマートフォン120とが比較的近い場所にあったのは、白丸と黒丸とが近接している家族イベントBの時間帯である。これに対し、家族イベントAの時間帯には、ほぼ同じ時刻(例えば1時間内)に撮影されたコンテンツD2とコンテンツM2との撮影地点が大きく異なることから、父のスマートフォン110を日常携帯している父と、母のスマートフォン120を日常携帯している母とが、家族イベントAの時間帯には離れた(例えば1Km以上離れた)場所にいたことが判る。
すなわち、特定時間内に父と母のスマートフォンによる撮影によりコンテンツを生成したとしても、これらのコンテンツが異なる場所で撮影されたことがGPS情報から判定される場合には、父と母が同じイベントに参加していなかったことがわかる。
上記実施の形態では、図2において撮影時間から家族イベントAと家族イベントBとを特定したが、本変形例では、図3におけるイベントBが、父と母とが共に参加した家族イベントであると判定され、イベントAは、父と母とが共に参加したイベントでなく、家族イベントでないと判定される。
従って、GPS情報とGPS測位時刻情報(撮影時刻情報)とから決定される家族イベントBのコンテンツとして認められる父が撮影したコンテンツD3、D4及びD5と母が撮影したコンテンツM5及びM6と家族共有のカメラ130にて撮影されたC2、C3及びC4は、プライバシー性又は秘匿性を考慮したうえで、この家族内で公開(共有)ができるものと判断できる。
また、家族共有のデジタルスチルカメラ130を父か母のどちらが携帯していたのかが分かれば、携帯していた方のスマートフォンで撮影したコンテンツと一緒にして家族コンテンツAを構成することが可能となる。例えば、撮影された映像情報の類似性を利用するなど、確実性の低い情報ではあるものの、それを頼りに判断することも考えられる。例えば、母のスマートフォン120とデジタルスチルカメラに同一の人物が撮影されていることが顔認証技術などで十分な精度で保障できる場合は、母のスマートフォン120とデジタルスチルカメラの映像で家族イベントAを構築することが考えられる。
以上のように、本変形例のコンテンツ管理機器100は、撮影地点を表すGPS情報を時間情報と併用することで、家族イベントであることを高い精度で推定することが可能となる。ここで、GPS情報は、例えば、写真であればEXIFメタデータの1つ、動画であればQuickTimeメタデータの1つ、の形式で該当ファイル内に埋め込まれていることが多い。そのため、コンテンツ管理機器100は、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
[1-5.実施の形態1の変形例2]
図4は、蓄積された個人コンテンツからイベントを検出する方法を説明する図である。ここで扱うコンテンツは、予め家族間で共有することに、プライバシー性又は秘匿性において問題がないと判断されているものである。
図4は、蓄積された個人コンテンツからイベントを検出する方法を説明する図である。ここで扱うコンテンツは、予め家族間で共有することに、プライバシー性又は秘匿性において問題がないと判断されているものである。
図4の(a)は、撮影された一連の写真又は動画を、各々に付加された撮影時刻情報に基づき、撮影時刻順に並べたものである。コンテンツ管理機器100の演算部101は、各写真又は動画の撮影時刻の前又は後のT1時間の期間内に別の写真又は動画がある場合、同じイベントにおける撮影であるとして、1つのグループに属するように処理を行う。言い換えれば、演算部101は、各写真又は動画の撮影時刻の間の期間のうち、所定のT1時間を超える期間(無撮影期間ともいう)によって、写真又は動画を複数のグループに区切る。
このようにして、演算部101は、写真又は動画を複数のグループにまとめた結果、1つのグループに属する写真又は動画がN枚を超えた場合に、当該グループに属する写真又は動画をまとめて1つのイベントとして登録する処理を行う。なお、動画は、例えば、再生時間M秒で写真1枚分としてカウントすることができる。
そして、演算部101は、各写真又は動画に付される撮影された場所を示す情報、例えばGPS情報から、1つのイベントに属する写真又は動画の撮影場所が全て、自宅から近距離(例えばXKm以内)である、又は、国内であると判定した場合は、イベント検出処理を完了し、その結果をデータベースとして記憶部103に記録及び登録しておく。
これにより今後、当該イベントを構成するコンテンツへのアクセスが容易となる。
一方、演算部101は、この検出処理で検出されたイベントの中に自宅から遠距離(XKm以上)で撮影された、又は、国外で撮影された写真又は動画が含まれていると判定した場合、T1時間だった無撮影期間の時間長を、T1より長いT2に拡張して、再び写真又は動画を当該グループに属するように処理を行う。
その結果、図4の(b)に表示するように、海外旅行中の比較的長い時間を要する移動などで写真撮影の間隔が比較的長く空いたとしても、無撮影期間の時間長を大きく設定して演算する。例えば、写真撮影の間隔が12時間(T1)以上空いたとしても、無撮影期間の時間長を24時間(T2)として演算をする。これにより、1つのイベントである海外旅行を1つのイベントとし、このイベントにおいて撮影された写真又は動画等のコンテンツをグループとして纏めて管理することが可能となる。
以上のように、演算部101は、複数の端末により生成された複数のコンテンツを取り込んだ場合に、複数のコンテンツの撮影時刻の間隔のうち、所定の時間長を超える無撮影期間が1つもない複数の撮影時刻時間で連続するコンテンツを、それぞれに所定数以上のコンテンツが属する複数のグループとしてグループ化する。ここで、所定の時間長は、コンテンツの撮影場所と、当該コンテンツの端末装置(撮影機器)の所有者の自宅との距離が離れるほど、長くなる。
また、所定の時間長は、コンテンツを撮影した国が、当該コンテンツの端末装置(撮影機器)の所有者の自宅がある国とは異なる場合には、長くなるように良い。
このようにコンテンツ管理機器100は、撮影時刻と撮影場所(自宅からの距離、撮影した国)とに応じてコンテンツの纏め方を変えていくことで、一連の相関があるコンテンツを同一のグループとして纏めることができる。このように相関性の強いコンテンツを纏めることで、1つの家族イベントであるコンテンツを纏めて表示し、管理する際のプライバシー又は秘匿性に配慮することができる。
[1-6.実施の形態1の変形例3]
次に、GPS情報ではなく、ビーコン電波を使って家族イベントであるか否かの判定を行う方法を図面を使って説明する。
次に、GPS情報ではなく、ビーコン電波を使って家族イベントであるか否かの判定を行う方法を図面を使って説明する。
本変形例では、スマートフォンが近接したことを知る手掛かりとして、所定の無線通信規格のビーコン信号(以降、単にビーコンともいう)を利用することが考えられる。例えば、無線通信規格であるBLE(Bluetooth(登録商標) Low Energy)のビーコン(以降、BLEビーコンともいう)が利用され得る。図5に図示したようにBLEビーコンには、ビーコン発信機を特定するための識別情報(UUID)、及び、同一UUID内での更に詳細な識別のための補助識別情報(Major、Minor)などが含まれている。この識別情報がBLEビーコンの発信側機器と受信側機器とで事前に共有されることで、受信側機器が発信側機器と近距離になったか否かを検出する。
図6は、母のスマートフォン120から発信されるビーコンと、息子のスマートフォン190から発信されるビーコンとを、父のスマートフォン110がいつ受信できたか、またその時の距離推定を履歴として記録した表を示している。
ビーコンを受信する側の機器は、特定の識別情報(UUID)を持つビーコンの検出を続け、それが検出できた時のビーコン電波強度により、ビーコンの発信する側の機器との距離を推定する。本変形例では、発信側機器と受信側機器との位置関係が複数段階のレベルに分けて決められているとする。より具体的には、図5に示されるように、発信側機器と受信側機器が数cm内の距離にある場合に得られやすい受信強度であった場合に「Immediate」、約1m内の距離にある場合に得られやすい受信強度であった場合に「Near」、約10m内の距離にある場合に得られやすい受信強度であった場合に「Far」、そしてビーコンを検出できない場合を「Unknown」として位置関係を分類している。
図6の(a)に示されるように、母のスマートフォン120及び息子のスマートフォン190により、例えば毎分0秒にビーコンを発信する。そして、父のスマートフォン110にインストールされたアプリにより、ビーコン発信時間帯(毎分0秒近辺)で、母のスマートフォン120及び息子のスマートフォン190からのビーコンを受信する受信待ち状態をとり、その結果を記録する。図6の(b)は、例として、2016年8月12日19時2分から同日19時8分までに、母のスマートフォン120および息子のスマートフォン190が発信するビーコンを、父のスマートフォン110が検出し、その受信強度を判断して、母のスマートフォン120および息子のスマートフォン190との位置関係を判断した結果を記している。
図6の(b)から、2016年8月12日19時2分から同日19時6分までに、父のスマートフォン110と母のスマートフォン120との距離が「Near」、すなわち約1m内の距離であったことが判る。また、同日19時7分以降は「Unknown」、すなわち検出できていないことから、父のスマートフォン110が、母のスマートフォン120が発信するビーコンが届かない距離まで離れていたことが判る。
同様に、2016年8月12日19時2分から同日19時3分までは、父のスマートフォン110と息子のスマートフォン190が「Far」、つまり約10m内の距離であったことが判る。そして同日19時4分からは、父のスマートフォン110が、息子のスマートフォン190が発信するビーコンが届かない距離まで離れていたことが判る。
それぞれのスマートフォンには、コンテンツ管理機器100へのコンテンツ自動アップロードなどの目的で固有のアプリケーションをインストールすることが想定される。このアプリケーションを利用して、家族が利用する機器のビーコン識別情報を共有しておくことで、特定の時刻に近い場所に居たのか、居なかったのかを、GPSによる場合よりも高精度に判定することができる。
なお、発信側機器がビーコン発信中に、受信側機器がビーコンを受信しなければならないという、発信と受信とのタイミング調整の課題がある。どちらの機器も比較的高精度(例えば秒精度)で時刻が同期されているとすると、それぞれが毎分0秒を中心としてビーコン発信処理とビーコン受信処理とを実行させることで、タイミング調整の課題を解決できる。そして、タイミングの差異によるビーコンの検出失敗、又は、無駄なビーコン発信や受信待ちによる電力消費を抑えることができる。
図7Aは、上記の判定処理を説明する図である。図7Aは、実施の形態1の図2と同様に、父のスマートフォン110と、母のスマートフォン120と、家族共有のカメラ130とのそれぞれが撮影したコンテンツを撮影時刻によって時系列に並べて示したものである。また、図7Aには、実施の形態1における家族イベントの特定方法により特定される家族イベントA及びBが示されている。
コンテンツ管理機器100は、父のスマートフォン110からビーコンの受信履歴を受信し、ビーコンの受信状況とビーコン送信機器との距離判断の結果を入手する。コンテンツ管理機器100の演算部101は、このビーコンの受信履歴から父のスマートフォン110と母のスマートフォン120との距離を算出する。その結果、演算部101は、父と母とが特定の距離(例えば10m以内の距離)に居なかったと判定することで、家族イベントがなかったものと判断し、家族イベントの有無の判断精度を高めることが可能である。
例えば、図7AのイベントAの時間帯のビーコン受信履歴情報から、父のスマートフォン110と母のスマートフォン120との間で、一回もビーコン受信が成功しなかったとする。これは、父のスマートフォン110が発信するビーコンが1回たりともこの時間帯に母のスマートフォン120で受信できなかっただけでなく、逆に母のスマートフォン120が発信するビーコンが1回たりともこの時間帯に父のスマートフォン110で受信できなかったことを意味している。このような場合には、このイベントAの時間帯に父のスマートフォンと母のスマートフォンが10m程度の近接距離にはなかったと判断できるため、このイベントAは少なくとも父と母が同時に参加した家族のイベントではない、と判断することができる。
このように、演算部101は、実施の形態1における特定方法では家族イベントとして特定されたイベントAの時間帯であっても、父のスマートフォン110と母のスマートフォン120とが特定の距離以内に存在しなかったと判定すると、イベントAは、家族イベントではなかったと判定する。
一方、図7AのイベントBの時間帯に、父のスマートフォン110と母のスマートフォン120との間でビーコン受信がどちらか片方向だけでも1回以上成功していた場合、父と母が同じイベントに参加していたと判断して、イベントB(に属するコンテンツ)を父と母、もしくは家族全員を対象とした許容コンテンツとして演算部101は管理する。
このように、本変形例では、演算部101は、複数のグループのそれぞれについて、当該グループに属する所定数以上のコンテンツが撮影された期間内にビーコン信号を上記1以上の端末それぞれが受信したと判定した場合に、当該グループに属する所定数以上のコンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する。
また、本変形例では、端末装置間でビーコンを送受信することでお互いの距離を測り、記録したビーコンデータを各端末装置が蓄積し、そしてコンテンツ管理機器100が端末装置から写真等のコンテンツの更新と共に各端末装置のビーコン受信データを入手する。コンテンツ管理機器100の演算部101は、このビーコン受信データから端末装置の位置関係を知り、端末装置が同じイベントに参加していたかを判断するので、集められたコンテンツの関連性が詳細に判断でき、またコンテンツの纏まりの有無を精度良く判断できる。そのために本変形例では、複数の端末装置から集められたコンテンツを、プライバシー性又は秘匿性を考慮して表示の判断又は管理することを実現する。
以上のように、本変形例に係るコンテンツ管理機器100は、図7Bに示されるように、記憶部103と、管理部101Aとを備える。管理部101Aは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。
記憶部103は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)コンテンツが撮影された時刻と、(c)上記撮影がなされた時刻を含む期間内に、複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、複数の端末のうちの第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している。
管理部101Aは、記憶部103を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したと判定した場合に、上記コンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する。なお、管理部101Aは、上記コンテンツを許容コンテンツとして管理するための情報を出力してもよい。なお、第一端末と第二端末とは、同一の端末であってもよいし、互いに異なる端末であってもよい。
ここで、第二端末は、繰り返し設定される所定時刻にビーコン信号を送信するようにしてもよい。その場合、1以上の端末それぞれは、所定時刻を含む受信待ち期間内にビーコン信号の受信のための待ち状態をとり、受信待ち期間内にビーコン信号を受信したか否かを示す履歴を生成する。生成された履歴は端末それぞれからコンテンツ管理機器100へ送信され、記憶部103に記録される。
図7Cは、本変形例に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図7Cに示されるように、ステップS101において、管理部101Aは、記憶部103を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したか否かを判定する。上記期間内にビーコン信号を1以上の端末それぞれが受信したと管理部101Aが判定した場合に、ステップS102に進み、そうでない場合には、図7Cに示される一連の処理を終了する。
ステップS102において、管理部101Aは、上記コンテンツを、上記複数の端末による提示が許容される許容コンテンツとして管理する。ステップS102を終えたら、図7Cに示される一連の処理を終了する。
例えば、図7Dのようにコンテンツ管理機器に登録されたスマートフォン端末6台が所定の時間帯にそれぞれのビーコンを1回でも受信したか否かを整理できたとする。ここでは、端末1のビーコンは端末2、端末3で受信に成功しており、端末2のビーコンは端末4で受信に成功しており、端末3のビーコンは端末1で受信に成功している。また、その他の端末同士ではビーコンの受信が成功していない。
これは、図7Eに示したような関係である。それぞれの端末からはビーコンが発信されたが、受信できたビーコンだけを矢印で結ぶと図7Eのような関係となる。
ここで上記の管理部101Aは、ビーコンの送受信に成功したペア(図7Eの矢印で結ばれた端末同士)を結び付け、結果として、図7Eの矢印で繋がれた端末群が当該時間帯にビーコンが届くような近くの場所に位置していたと判断する。したがって、この例では、端末1、端末1から近い端末2と端末3、端末1から近い端末2に近い端末4の4台が、当該時間に近くにあったと判断される。また逆に、どの端末ともビーコンの送受信に成功していない端末5、端末6は、端末1などとはビーコンが届かないほど遠くにあったと判断される。したがって、図7Dもしくは図7Eの場合には、端末1、端末2、端末3、端末4の間ではそれぞれが撮影したコンテンツを共有しても同一のイベントに参加していたと判断できるため共有に起因するリスクが少なく、それらのコンテンツは許容コンテンツとして、これらの端末(端末1~端末4の4台)に対しては管理される。また、それらのコンテンツは端末5、端末6に対しては許容コンテンツとして管理せず、提示を禁止するようにしても良い。
管理部101Aは、コンテンツを撮影した第一の端末と、第一の端末がコンテンツを撮影した時刻を含む所定時間内に、すくなくとも第一の端末を含んでビーコンの送受信が成功した端末同士から成る集合を特定し、前記コンテンツを前記集合に含まれる端末に対してのみ、またはそれら端末の所有者に対してのみ、提示することを許容するように管理する。
また、管理部101Aは、上記のように構成された集合がコンテンツ管理機器100に登録された端末の内、所定の割合を超えた時点で、かつ/または、所定の端末が加わった時点で、全ての登録端末に対して許容コンテンツとして管理するようにしても良い。
これにより、コンテンツ管理機器100は、プライバシー性又は機密性の問題を有効に解決し得る。
以上のように、コンテンツ管理システム1は、複数の端末110等と、複数の端末110等に接続し、複数の端末110等により生成されたコンテンツを管理するコンテンツ管理機器100とを備える。複数の端末110等は、生成するコンテンツと、電波を用いたビーコン信号とを送受信する。
コンテンツ管理機器100は、記憶部と管理部とを備える。なお、記憶部は、上記の記憶部103に相当する。また、管理部は、上記の演算部101に相当する。
記憶部は、(a)複数の端末110等の1つである第一端末により生成されたコンテンツと、(b)上記コンテンツが生成された時刻と、(c)上記時刻を含む期間内に、複数の端末110等のうちの第一端末が送信したビーコン信号を、複数の端末110等のうちの第一端末以外の端末が受信成功もしくは失敗しているのかを示す情報と、を記憶している。
演算部は、上記コンテンツが生成された時刻を含む時間帯において、複数の端末110等のうちの第一端末とは異なる端末であって、第一端末が送信したビーコン信号を受信成功している端末に、第一端末が生成したコンテンツの閲覧を許諾する。これにより、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効することができる。
ここで、管理部は、さらに、上記時間帯において、第一端末が受信に成功したビーコンを送信した第二端末に、第一端末が生成したコンテンツの閲覧を許諾してもよい。これにより、コンテンツ管理システムは、ビーコンの受信の成否を用いて、より容易にコンテンツの閲覧を許諾する端末を決定することができる。
また、管理部は、さらに、上記時間帯において、第二端末とのビーコンの送信及び受信の何れかが成功した第三端末に、第一端末が生成したコンテンツの閲覧を許諾してもよい。これにより、コンテンツ管理システムは、ビーコンの送信または受信の成否を用いて、より容易に、コンテンツの閲覧を許諾する端末を決定することができる。
なお、このようにして第一端末がコンテンツを生成した時刻を含む期間内に、第一端末とビーコン送受信が成功した第二端末と、同じ期間内に第二端末とビーコン送受信が成功した第三端末と、同じ期間内に第N端末とビーコン送受信が成功した第(N+1)端末と、を数珠繋ぎのように追加していくことで、第一端末が生成したコンテンツの閲覧許諾先を、第N端末を含むように増やしていっても良い。ここで、Nは2以上の整数を表す。
(実施の形態2)
次に、コンテンツ管理機器が操作者にコンテンツを表示する場合の動作とコンテンツ表示方法について図1、図8A~図10を使って説明する。なお、上記コンテンツは、実施の形態1におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
次に、コンテンツ管理機器が操作者にコンテンツを表示する場合の動作とコンテンツ表示方法について図1、図8A~図10を使って説明する。なお、上記コンテンツは、実施の形態1におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
図8Aは、本実施の形態に係るコンテンツ管理機器100の構成の説明図である。
図8Aに示されるように、本実施の形態のコンテンツ管理機器100は、記憶部103と、管理部101Aとを備える。管理部101Aは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。
記憶部103は、複数のコンテンツと、複数のコンテンツそれぞれの管理情報(撮影時刻、撮影場所や、被写体を特定する情報など)とを記憶している。
管理部101Aは、複数のコンテンツに関連する地域区分を示す文字列を決定する。ここで、管理部101Aは、複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を示す地域区分を大きくして、上記文字列を決定する。なお、上記の文字列は、例えば後述のオープニングテロップに用いられる。また、その他、記憶部103内でのコンテンツの格納場所を示すディレクトリ又はフォルダの名称としても用いられ得る。
ここで、管理部101Aは、さらに、複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を示す地域区分を小さくして、上記文字列を決定し、且つ/又は、複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を示す地域区分を小さくして、上記文字列を決定する。
図8Bは、本実施の形態に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図8Bに示されるように、ステップS201において、管理部101Aは、複数のコンテンツと、複数のコンテンツそれぞれの撮影場所とを記憶している記憶部103から、複数のコンテンツと複数のコンテンツそれぞれの撮影場所とを取得する。
ステップS202において、管理部101Aは、ステップS201において取得した複数のコンテンツと複数のコンテンツそれぞれの撮影場所とを参照して、複数のコンテンツに関連する地域区分を示す文字列を決定する。ここで、決定の際には、管理部101Aは、コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該コンテンツの撮影場所を示す地域区分を大きくして、上記文字列を決定する。
また、決定の際には、管理部101Aは、コンテンツの撮影場所の知名度が高いほど、当該コンテンツの撮影場所を示す地域区分を小さくして、上記文字列を決定しても良い。
これにより、コンテンツ管理機器100は、ユーザが明示的に適切な文字列を設定しなくても、コンテンツの撮影場所に基づいて適切な地名を表現する文字列を設定することができる。
以降において、コンテンツ管理機器100について詳しく説明する。
本実施の形態のコンテンツ管理機器100は、複数の端末装置から送信された複数の写真又は動画等の映像のコンテンツを記録している。コンテンツ管理機器100は、その映像を撮影した場所情報を取得し、実施の形態1に従って、または場所情報から撮影した場所が所定の距離内である映像を判別してグループとし、このグループに属する映像を纏めて表示用コンテンツを作成する。この表示用コンテンツを表示する際に最初の画面にグループに属する映像の場所情報と特定場所との距離に応じて地域区分の大きさを変更し、選択され表示される際に表記される地域名を変えて表示する。
図8Cは、ある人物の旅程を地図上で示した図である。例えば、自宅住所が大阪府大阪市北区中之島XX-YYであるコンテンツ管理機器100の所有者(以下、所有者と記す)が、成田空港(千葉県成田市古込1-1)を経由して、ケアンズにある小学校(オーストラリア クイーンズランド ケアンズ パラマッタパーク モルグレイブロード122パラマッタ州立学校)を訪問したとして説明する。所有者は、端末装置であるスマートフォン110を所持しており、訪問先において写真又は動画を撮影している。
所有者の撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100にも記録される。所有者は、コンテンツ管理機器100を用いて記録されたコンテンツを、表示装置であるTV180に映し出して楽しむことができる。
[2-1.構成]
本実施の形態を説明するのに、図1を用いて説明する。コンテンツ管理機器100は、所有者である父の自宅の大阪府に設置されている。所有者である父と、その家族である母及び息子とが、旅行中に撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100の記憶部103に記録されている。演算部101は、所有者が保持する端末装置のスマートフォン110、母のスマートフォン120、又は、息子のスマートフォン(図示せず)のそれぞれのGPS情報を付加したコンテンツ、またそのGPS情報から住所へ変換するデータベースを用いて、家族旅行で辿った地点の住所を得ることができる。ここで、上記データベースとして、GPS情報から住所へ変換するクラウドサービスへのWebAPIによる問い合わせにて代用することもできる。
本実施の形態を説明するのに、図1を用いて説明する。コンテンツ管理機器100は、所有者である父の自宅の大阪府に設置されている。所有者である父と、その家族である母及び息子とが、旅行中に撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100の記憶部103に記録されている。演算部101は、所有者が保持する端末装置のスマートフォン110、母のスマートフォン120、又は、息子のスマートフォン(図示せず)のそれぞれのGPS情報を付加したコンテンツ、またそのGPS情報から住所へ変換するデータベースを用いて、家族旅行で辿った地点の住所を得ることができる。ここで、上記データベースとして、GPS情報から住所へ変換するクラウドサービスへのWebAPIによる問い合わせにて代用することもできる。
そして、演算部101は、GPS情報を用いてコンテンツを編集し、例えばGPS情報ごとにコンテンツをグループとして纏めて、このグループを紹介する画面とグループに属するコンテンツをTV180に表示し、また時刻情報をもとに時系列順に並べて表示することができる。
[2-2.動作]
ここで、家族旅行においてその旅行先をTV180に表示する場合に、詳細すぎる住所表現は望ましくないケースがある。例えば、この家族旅行に関わるコンテンツを纏めたダイジェスト動画の先頭ページで「パラマッタパークへの旅行」というテロップを表示し、またこの家族旅行の写真を閲覧アプリで表示する場合に、その表示場所の表記に「パラマッタパーク」と記述しても、この地名の知名度が低い場合には理解しにくいと考えられる。
ここで、家族旅行においてその旅行先をTV180に表示する場合に、詳細すぎる住所表現は望ましくないケースがある。例えば、この家族旅行に関わるコンテンツを纏めたダイジェスト動画の先頭ページで「パラマッタパークへの旅行」というテロップを表示し、またこの家族旅行の写真を閲覧アプリで表示する場合に、その表示場所の表記に「パラマッタパーク」と記述しても、この地名の知名度が低い場合には理解しにくいと考えられる。
つまり、個人コンテンツを管理する場合には、訪問先の距離、訪問先の知名度、訪問先への訪問回数などによって、その訪問先を示す、理解されやすい表現が変化する。より具体的には、訪問先であって、あまり行かない場所の住所を如何に表現するかによって、理解し易さ、扱いやすさが変わってくる。
そこで、コンテンツ管理機器100は、コンテンツの内容を紹介する場合に、画面に表示する表現をどのようにするかの判断を、表示するコンテンツに関連する情報、例えばコンテンツに付加された情報を用いて、あらかじめ決められた基準によって決定する。本実施の形態では、コンテンツ管理機器100が設置されている場所を自宅とし、この自宅とコンテンツに付加された場所情報との距離によって表示する内容を変える例を記す。
なお、自宅の位置は、父又は母などのユーザから明示的に設定されてもよいし、ユーザのスマートフォンが自宅のネットワーク(例えば、WiFiやLAN接続)を用いてコンテンツをコンテンツ管理機器100に提供するときの、当該スマートフォンの位置から取得してもよい。なお、ユーザの自宅の位置が引っ越しなどにより変更される場合には、コンテンツ管理機器100が保有している自宅の位置を示す情報も変更されるべきである。自宅の位置の変更は、父又は母などのユーザから明示的に設定されてもよいし、ユーザのスマートフォンがコンテンツをコンテンツ管理機器100に自宅のネットワーク(例えば、WiFiやLAN)を介して提供するときの、当該スマートフォンの位置の変化から取得してもよい。なお、自宅の位置の変更に対応するため、コンテンツ管理機器100は、過去の自宅の位置を時刻情報と紐付て管理する。例えば、コンテンツ管理機器100は、2000年1月から2002年12月までの自宅の住所は、東京都千代田区AAであり、2003年1月から2013年12月までの自宅の住所は、大阪府大阪市BBであるというように、過去の自宅の位置を時刻情報と紐付て管理する。
図9の(a)は、第1の基準の例を示している。第1の基準の例では、撮影した場所と自宅との距離を基準にして、コンテンツを紹介する表示を決定する。図9の(a)は、撮影した場所から自宅までの距離が、近距離(例えば10Km以下)、中距離(例えば10Km~100Km)、遠距離(例えば100Km以上)の3つの範囲に分けて、それぞれの範囲の住所表記のレベルを、「細かく」、「中程度」及び「粗く」のいずれかとする、基準の一例である。これは上述の通り、撮影した写真又は動画に付されるGPS情報を撮影場所として判断しても良い。なお、上記のように、住所表記のレベルを「細かく」、「中程度」及び「粗く」のいずれかとすることは、それぞれ、撮影場所の地域区分を「小さく」、「中程度」及び「大きく」にいずれかとすることに相当する。
この分け方を用いると、図9の(a)の最も右の列に示される例のように、自宅からイベントの撮影場所までの距離に応じて、近距離であれば「区」、中距離であれば「市町村」、遠距離であれば「都道府県」又は「国」のようなレベルで住所表記を用いて、コンテンツの内容を紹介するための表示を行う。
図9の(b)は、第2の基準の例である。第2の基準では、第1の基準である、自宅からイベント撮影地点までの距離、に加え、その訪問都市の知名度、又は、過去の訪問回数を考慮して住所表記レベルを決定する。住所表記レベルは、「1(もっとも細かく)」から「6(もっとも粗く)」までの6段階に設定され得る。例えば、遠距離でかつ知名度が低い都市であれば、都道府県名又は国名をイベント撮影地点として使うことが考えられる。逆に、近距離で何度も訪問している場所であれば、区名、町名、又はランドマーク(公園名など)をイベント撮影地点として使うことが考えらえる。
また、表示の判断の基準は、イベント撮影地点が自宅とは異なる国(国外)であった場合には、自宅からの距離によらず、国名、又は、知名度がある場合には都市名、で表現するようにしてもよい。
コンテンツ管理機器100は、図9の(a)又は(b)の基準表を記憶部103に保持しておき、演算部101がコンテンツを編集するときに、コンテンツの付加情報と図9の(a)または(b)の基準表から、コンテンツを紹介する際の表示を決定する。
図10は、オーストラリアのケアンズへ家族旅行に行った場合に、その家族旅行中に撮影した複数の写真を1つのダイジェスト動画に編集したコンテンツを作成し、そのコンテンツのオープニングテロップの一例を示している。このオープニングテロップは、例えばTV180に表示される。
演算部101は、家族旅行中に所有者がスマートフォン110で撮影した写真又は動画などのコンテンツに付加された撮影場所を示すGPS情報から、コンテンツの撮影場所が自宅から遠距離(100Kmより遠い)であると判断する。そして演算部101は、記憶部103に記録されている図9の(a)の基準の表から、これらのコンテンツを表示する際のオープニングページでの表示に、「都道府県」または「国」を使うことを決定する。その結果、演算部101はGPS情報から撮影場所の表記を「オーストラリア」と決定し、図10の(b)のように表示する。
また、コンテンツに付加された情報だけでなく、他の情報も活用して表記を決定する例もある。ここでは、「自宅からの距離」のほかに「知名度」に応じてコンテンツのオープニングテロップの表記を決定する例を説明する。
コンテンツ管理機器100の演算部101は、記憶部103に記録されているコンテンツおよびその付加情報から、この家族の旅行先の統計を求め、旅行先の訪問回数を計数して記憶部103に保持している。そして訪問回数が特定回数以上と判断された場合は、この旅行先の知名度は高いものと判断する。演算部101は、コンテンツの付加情報による自宅からの距離と知名度とに基づいて、図9の(b)の表から判断してオープニングテロップの表示を決定する。
演算部101は、記憶部103に記録されている複数の写真又は動画のコンテンツに、付加されたGPS情報と撮影日情報とに基づいて、同じ撮影場所であっても撮影年月が異なる撮影の塊が複数あると判定される場合、この撮影場所への訪問回数が多いと判断する。
そして、演算部101は、図9の(b)から、この家族旅行について撮影場所は自宅からの距離が「遠距離」で、「知名度/訪問回数が多い」ものであるから、住所表記レベルを「3(やや細かく)」すなわち「市町村または都道府県または国」のいずれかを表記すると決定し、図10の(a)に示されるオープニングテロップを備えたコンテンツの纏めをTV180へ出力するように制御する。図10の(b)では、国名である「オーストラリア」ではなく、より地域区分が小さく、より地域性が表現されている地名である「ケアンズ」を表示する。
[2-3.効果など]
本実施の形態では、コンテンツ管理機器100の演算部101が、写真又は動画などのコンテンツに付加される情報などから、自宅から遠く離れた場所に関わるコンテンツ、又は、海外に行った場合に関わるコンテンツに関わる表示画面を作るときに、所有者、ユーザーまたは視聴者がそのコンテンツを見るときに分かり易い住所表記(ここでは、有名な都市名又は国名)で表示できるように動作する。つまり、演算部101は、コンテンツの撮影場所に関わる「パラマッタパーク」又は「モルグレイブロード」といった馴染みの少ない地域名、又は、伝わりにくい表現を避けるように処理を行い、理解しやすい地名情報を含んだオープニングテロップを作成し、表示することができる。
本実施の形態では、コンテンツ管理機器100の演算部101が、写真又は動画などのコンテンツに付加される情報などから、自宅から遠く離れた場所に関わるコンテンツ、又は、海外に行った場合に関わるコンテンツに関わる表示画面を作るときに、所有者、ユーザーまたは視聴者がそのコンテンツを見るときに分かり易い住所表記(ここでは、有名な都市名又は国名)で表示できるように動作する。つまり、演算部101は、コンテンツの撮影場所に関わる「パラマッタパーク」又は「モルグレイブロード」といった馴染みの少ない地域名、又は、伝わりにくい表現を避けるように処理を行い、理解しやすい地名情報を含んだオープニングテロップを作成し、表示することができる。
(実施の形態3)
本発明のコンテンツ管理機器は、操作者との音声対話に応じて、操作者に求める発話指示や表示映像を適切に切り替えることで、操作者がコンテンツ管理機器の操作を自然に、また発話内容を迷わずに発音できるものである。具体的には、本実施の形態では、操作者の音声を入力して音声認識して操作信号に変換し、この操作信号に基づき複数のコンテンツである映像を判別してグループとし、このグループに属する映像を纏めて操作するための発話指示をグループに表示した画面を表示し、操作者の入力する音声を使って音声認識して、あらかじめ記録されている操作者の属性情報を特定し、この属性情報から表示する発話指示を選択し、画面に表示するものである。
本発明のコンテンツ管理機器は、操作者との音声対話に応じて、操作者に求める発話指示や表示映像を適切に切り替えることで、操作者がコンテンツ管理機器の操作を自然に、また発話内容を迷わずに発音できるものである。具体的には、本実施の形態では、操作者の音声を入力して音声認識して操作信号に変換し、この操作信号に基づき複数のコンテンツである映像を判別してグループとし、このグループに属する映像を纏めて操作するための発話指示をグループに表示した画面を表示し、操作者の入力する音声を使って音声認識して、あらかじめ記録されている操作者の属性情報を特定し、この属性情報から表示する発話指示を選択し、画面に表示するものである。
なお、上記コンテンツは、実施の形態1又は2におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
以下にその一例について図面を使って説明する。
[3-1.構成]
本実施の形態に係るコンテンツ管理機器100について説明する。
本実施の形態に係るコンテンツ管理機器100について説明する。
図11Aに示されるように、本実施の形態のコンテンツ管理機器100は、記憶部103と、提示制御部101Bと、受付部101Cと、管理部101Aとを備える。管理部101A、提示制御部101B、及び受付部101Cは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。受付部101Cの実現には、I/F部102も用いられ得る。また、コンテンツ管理機器100は、実施の形態1におけるTV180に相当する提示部180Aに接続されている。なお、提示部180Aは、コンテンツ管理機器100が備えるものであってもよい。
記憶部103は、複数のコンテンツと、複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している。タグとは、当該コンテンツに関する付加情報であり、例えば、撮影日時、撮影場所(GPS情報、地名情報)、被写体の識別情報、被写体の表情情報(笑顔度合、目の開閉度、口の開閉度)、近くのランドマーク名称、撮影場所の気温、湿度、天気などを表す情報である。
提示制御部101Bは、複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部180Aに提示させる。
受付部101Cは、提示制御部101Bが提示させた1以上のタグに対するユーザによる操作を受け付ける。
管理部101Aは、上記操作を受付部101Cが受け付けた場合に、上記操作の対象であるタグの内容を検索条件として複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、新たな検索の対象である1以上のコンテンツに紐付られている1以上のタグを提示部180Aに提示させる。
ここで、管理部101Aは、さらに、提示部180Aに提示させる1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を提示部180Aに提示させる。コンテンツを再生させる操作を受け付けるための情報の提示の一例は、コンテンツを再生させる操作を受け付けるためのボタン画像をTV180に表示することである。
また、管理部101Aは、さらに、提示部180Aに提示させる1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を提示部180Aに提示させる。検索条件を減らす操作を受け付けるための情報の提示の一例は、検索条件を減らす操作を受け付けるためのボタン画像をTV180に表示することである。
図11Bは、本実施の形態に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図11Bに示されるように、ステップS301において、管理部101Aは、複数のコンテンツと、複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している記憶部103を参照して、複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部180Aに提示させる。
ステップS302において、受付部101Cは、ステップS301で提示させた1以上のタグに対するユーザによる操作を受け付ける。
ステップS303において、上記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、新たな検索の対象である1以上のコンテンツに紐付られている1以上のタグを提示部180Aに提示させる。
以降において、コンテンツ管理機器100について詳しく説明する。
本実施の形態の構成を説明するのに、図1を用いて説明する。ここではすでに説明している構成については省略する。
本実施の形態のコンテンツ管理機器100は、実施の形態1及び2のコンテンツ管理機器100に加えて音声認識機能を備える。記憶部103には、父のスマートフォン110、母のスマートフォン120または家族共有のカメラ130からそれぞれが保有する映像、音楽およびドキュメント等のコンテンツを入力して管理するとともに、父又は母の複数の音声データが記録されている。演算部101は、マイク170を介して入力された音声とマッチングすることで音声認識処理を実行する。また、記憶部103には、父、母又は家族に関する属性情報が記録されていて、演算部101は、音声認識処理により発話者(操作者)を特定すると、その発話者の属性情報も特定する。
演算部101は、記憶部103に記録される映像およびそれに付加されたタグを解析し、関連性のある映像をグループとして纏める。そして、演算部101は、グループに映像を選択するために利用する操作画面を作成し、入出力部104を介してTV180へ出力する。選択するために利用する操作画面には、発話者(操作者)が発話するための発話指示をジャンル毎に表示する。
操作画面には、タグ情報に基づき纏められた複数のコンテンツを含むジャンル毎にアイコンが表示される。アイコンには、発話指示のジャンル名とそのジャンルのグループに属するコンテンツの数とが表示されている。
発話者(操作者)はTV180の画面を見ながら、選択するアイコンに表示されるジャンル名を発話すると、そのジャンルに纏められたコンテンツが、さらに複数のジャンルにより細かくグループ分けされ、それぞれのジャンル毎に属するコンテンツの件数とジャンル名が記載されたアイコンが表示される。
[3-2.動作]
コンテンツ管理機器100は音声による指示を受け付けることで、各種操作を制御する音声操作機能を備える。演算部101は、マイク170、I/F部102を通して入力された音声信号を、記憶部103に記録される音声データとマッチングし、音声信号を対応する操作信号に変換する。
コンテンツ管理機器100は音声による指示を受け付けることで、各種操作を制御する音声操作機能を備える。演算部101は、マイク170、I/F部102を通して入力された音声信号を、記憶部103に記録される音声データとマッチングし、音声信号を対応する操作信号に変換する。
図11Cの(a)は、コンテンツ管理機器100が起動したときにTV180に表示する画面であり、音声によりコンテンツ管理機器100を操作するための操作画面の一例である。操作者が、例えば、「パナソニック」とマイク170に呼びかけると、マイク170から音声「パナソニック」が入力され、事前に登録されている起動ワード(この場合「パナソニック」)と認識して、図11Cの(a)にある操作画面をTV180に表示する。このように音声により起動した場合は、音声操作に適したGUI(Graphical User Interface)を表示する操作画面を表示するが、リモコンで起動した場合には、従来のリモコン操作に適したGUIが表示されるようにしてもよい。
また、本実施の形態では記憶部103に音声データを記憶し、演算部101で音声認識を実行する例を説明するが、コンテンツ管理機器100が入力された音声信号を、インターネット160を通して接続されているサーバー(図示せず)へ送信し、サーバーで音声認識を行い、その認識結果をコンテンツ管理機器100へ返すようにしてもよい。
コンテンツ管理機器100には、家族の個人コンテンツを一括して、しかも大量の映像が保管されているため、TV180への表示形式が日付又は撮影場所で階層的かつ網羅的にコンテンツを選択していくGUIでは閲覧性が悪い。本実施の形態では、関連する写真又は動画を所定の条件によってまとめた枝(ジャンル)として、お薦めコンテンツを提示する。コンテンツ管理機器100は、このようにお薦めを提示するために、あらかじめ記憶部103に記録されている映像のタグ又は映像を解析し、その映像のタグ、又は、映像の各シーンが解析結果から関連性が高いと判断されるコンテンツを纏め、それらのコンテンツをグループとして枝の先にアイコンとして表示する形式をとる。
TV180の画面に同時に表示するジャンルの個数は、表示の一覧性を高めるため5~9種類のジャンルに自動で調整され、それぞれのジャンルごとにアイコンが作られて枝分けして表示される。本実施の形態では、時間で纏められたジャンル(「2017年」、「最近のパパ」)、撮影場所で纏められたジャンル(「枚方パーク」、「大阪市))、撮影された被写体で纏められたジャンル(この家族の長男である「太郎」、複数の人が一緒に写った映像を集めた「集合写真」)などから構成されるように自動的に選択及び決定される。
本実施の形態では、図11Cの(a)に示すとおり、コンテンツ管理機器100は、マイクを模したアイコン(「マイク」アイコンともいう)1101をTV180の画面の中央に配置して、ユーザーに操作を促す指示として「探したいキーワードを喋ってね」というメッセージ1108を表示する。この表示によって、どのような検索ワードでも受け付けることと、ユーザーからの音声操作命令をコンテンツ管理機器100が待っている状態であることとをユーザーに伝えている。
この画面を表示した状態のまま所定時間何も操作がないと、演算部101は、図11Cの(b)のような、「マイク」アイコン1101の周りにお薦めのコンテンツをジャンルごとに分けて、「マイク」アイコン1101から各ジャンルのアイコンへ枝が伸びている様子を示す画面を表示する。
図11Cの(b)は、コンテンツ管理機器100が、TV180の画面において、「マイク」アイコン1101の周囲に「2017年」アイコン1102、「太郎」アイコン1103、「枚方パーク」アイコン1104、「大阪市」アイコン1105、「集合写真」アイコン1106、及び、「最近のパパ」アイコン1107を表示している状態を示している。上記それぞれのアイコンは、ジャンル名(例えば「2017年」又は「太郎」など)とそのジャンルに所属するコンテンツ数を表示する。例えば「2017年」アイコン1102であれば759件の写真又は動画があることを意味する。
このように、コンテンツ管理機器100は、どんなジャンルのコンテンツが、どれくらいの個数あるのか、を分かり易く表示している。また、お薦めのジャンルをこのように自動的に生成して表示することで、音声操作でありがちな、何を話したら良いのか分からない、という課題を避けることができる。このようにコンテンツ管理機器100の演算部101が、記憶部103に記録されているコンテンツを解析し、その結果をユーザーまたは操作者が理解しやすいような画面を作成してTV180に表示する。
図11Cの(b)では、音声入力を促す「マイク」アイコン1101から放射線状に枝が伸び、それぞれの先にはそれぞれジャンル名とそのジャンルに含まれるコンテンツの数を記したアイコンが6つ表示され、さらに画面下方に操作指示を促す「探したいキーワードを喋ってね」というメッセージ1108が表示されている。そのため、操作者は、音声でジャンル名を選択することを理解できる。
次に、図12の(a)は、図11Cの(b)と同じ6つのお薦めのアイコンを表示しているのに加えて、アイコンのジャンル名の読みが難しい漢字にふりがな(ルビ)を追加して表示している例を示している。昨今の音声認識技術では、発話者の声紋から発話者を特定し、性別又は年齢といった話者属性の推定が精度高くできる。例えば、発話者特定に関する技術は、特許文献2及び3に記載されるような技術も存在する。
また、コンテンツ管理機器100の記憶部103に、家族情報として家族全員分の顔照合用「顔写真」、家族の「名前」、家族内での「呼ばれ方」、「生年月日」などを記録しておけば、演算部101は、記録された情報から家庭内に何歳の子供が居るのかが分かり、ジャンル名に子供の年齢に応じた適切なルビを付与することが可能となる。また、例えば演算部101は、発話者がマイク170を通して入力した音声から、音声認識技術を用いて発話者が子供であると推定した場合に限りルビをふるようにすることで、大人にも子供にも適切なジャンル名の表示を行ってもよい。
また演算部101は、発話者の音声から、発話の状態から子供だけで操作、または視聴していると判断できる場合には、ジャンル名の漢字にルビを付すのではなく、図12の(b)に示されるようにジャンル名から漢字を減らして表示することもできる。言い換えれば、演算部101は、上記場合には、漢字がより少ないジャンル名の記載を採用して表示することができる。
これもコンテンツ管理機器100に登録された生年月日情報、又は、発話者の推定結果から、発話者の漢字読解力を推定して、ジャンル名を漢字で表示するか、漢字とルビ(ふりがな)で表示するか、ひらがなで表示するか、を選択するようにしてもよい。また視聴者又は発話者の年齢、海外渡航経験、語学力に応じて、海外旅行の場合などには、「ケアンズ」とカタカナで都市名を表示せずに、「Cairns」と英文字で表示してもよいし、英語表記の上にカタカナで「ケアンズ」と添えてもよい。
次に、所有者の両親がコンテンツ管理機器100を音声操作するときに、TV180に表示する操作画面の一例を図13に示す。図13の(a)は、所有者とその両親とが同居する家庭での表示例を示している。
コンテンツ管理機器100の所有者の両親が写真を見る時には、「パパの写真を見せて」とは言わず息子である所有者の名前(「洋」)を使い、「最近の洋の写真を見せて」と発話をすることが自然である。演算部101は、マイク170から入力される音声から、音声認識技術を用いて発話者を判断し、現在の発話者(操作者)を所有者の父母であることを推定すると、父母が発話し易いようにアイコンのジャンル名を変更する。図13の(a)では、ジャンル名に発話者の息子の名前を使用し、「最近の洋」アイコン1301のように表示する。加えて演算部101は、記憶部103に記録される父母の年齢情報から、発話者の父母が高齢だと判断する場合には、ジャンル名の表記の寸法を、一般に表記するときより大きくすることで、発話者が発話しやすい画面を表示する。
図13の(b)は、他の操作画面の一例であり、発話指示のジャンル名が家族内の呼ばれ方に応じて表示されている。音声認識技術により現在の発話者(操作者)を所有者の子供であると推定し、家族情報から子供が父のことを「ピロ」と呼ぶことがわかると、「最近のパパ」でなく「最近のピロ」と最近の父の映像を収めたジャンル名をアイコンに表記した「最近のピロ」アイコン1311を表示するようにしてもよい。
[3-3.効果など]
以上のようにコンテンツ管理機器100は、入力される音声から発話者を特定し、発話者の情報から発話しやすい表現(または用語)を選択し、発話しやすいように表示するので、発話者は発話しやすく無理がない音声操作を行うことができる。
以上のようにコンテンツ管理機器100は、入力される音声から発話者を特定し、発話者の情報から発話しやすい表現(または用語)を選択し、発話しやすいように表示するので、発話者は発話しやすく無理がない音声操作を行うことができる。
[3-4.実施の形態3の変形例]
図14は、音声操作での選択と共に、どのように画面表示が切り替わるかを説明する図である。
図14は、音声操作での選択と共に、どのように画面表示が切り替わるかを説明する図である。
図11Cの(b)の操作画面の状態で、「大阪市」アイコン1105が選択された場合、図14の(a)のような表示にアニメーションして切り替わる。図14の(a)では、「大阪市」に関するコンテンツが1059件あることを示す「大阪市」アイコン1401を中心に、そのまわりにコンテンツ1059件が6つのジャンルで分類され、もう一段の詳細化されて、それぞれの枝として表現される。例えば、「大阪市」で撮影されたコンテンツ1059件の内、「2017年」に撮影されたコンテンツの総数が251件であることがわかるように、図14の(a)で「2017年」アイコン1402が件数の「251」を含めて表記される。
このようにして、ジャンルごとに一段ずつ検索ワードで絞り込みを行い、目的のコンテンツに簡単に素早く辿り着くようなGUIとなっている。真ん中には既に絞り込まれたジャンルのアイコンが表示され、そこから伸びる枝に、さらなる詳細化のためのジャンルのアイコンが表示される。
図14の(b)は、図14の(a)の状態で、「2017年」アイコン1402が選択された結果のTV180の表示画面を示している。画面中央に現在の絞り込みワードである「大阪市」と「2017年」の表記、更にその総数(251件)が表示されるアイコン1403が配置されている。中央から伸びる枝には、251件をさらに効率的に分割するジャンルのアイコンが自動的に選択され、表示される。図14の(b)では6つのジャンルに分類され、例えば右上の「夏」アイコン1404で表示しているのは、「夏」というジャンルに所属するコンテンツが93件であることを示している。つまり、もともとコンテンツ管理機器100に管理されている全てのコンテンツを、「大阪市」という場所に関するキーワード、「2017年」という撮影時期に関するキーワード、さらに「夏」という時期をさらに詳細化するキーワードでグループ化して絞り込むと、93件のコンテンツが該当するということを示している。
このようにTV180の画面に表示される操作画面に表示されているアイコンに記載されている、表発話指示であるジャンル名を選択すると、選択されたアイコンに所属するアイコンをさらに複数のジャンルに分類し、それぞれジャンルに所属するコンテンツの数を計数し、TV180に各カテゴリのジャンル名とそれに含まれるコンテンツ数を記すアイコンを表記する。演算部101は、コンテンツ又はコンテンツに付加されている情報からが操作画面に表示するアイコン数を適宜決定し、TV180に表示するので、発話者は、アイコンのジャンル名を発話するだけで、選択したいコンテンツをどんどん絞り込むことができる。
次に、音声操作で数回の検索ワードを発話して絞り込みが進み、発話者が見たいコンテンツに絞り込まれたと演算部101が判定した場合の動作を次に説明する。演算部101は、ユーザーが選択したカテゴリに含まれるコンテンツの数が特定数より少ない場合(例えば、コンテンツの総数が300件を下回る場合、またはカテゴリの各枝となるカテゴリが、いずれもその所属するコンテンツ数が100件を下回る、など)、TV180に表示する操作画面に、カテゴリを示すアイコンとは異なるアイコンを表示する。
図15は、図14の(b)のTV180の操作画面から発話者が「夏」アイコン1404を選択して発話した後の操作画面を示している。発話者が「大阪市」、「2017年」および「夏」のカテゴリで絞り込んだコンテンツの数は93件であることが、画面の中心部のアイコンに表記されている。演算部101は、所属するカテゴリの数が特定数(本実施の形態では300件とする)より少ないアイコンを操作者が選択すると、操作画面にはコンテンツに関わるカテゴリのアイコンのほかに、コマンドのアイコンを表示する。そこで操作者が図14の(b)の操作画面からジャンル名「夏」を発話したため、演算部101は音声認識処理により選択されたのが「夏」アイコン1402で、所属するアイコンが300件より少ないことを認識したので、図15に示すように「プール」、「花火」、「城東区および「太郎」の4つのアイコンと、制御コマンドである「再生」アイコン1502と「戻る」アイコン1503を表示する。「再生」アイコン1502、「戻る」アイコン1503は、他のアイコンとは異なり、操作名が二重丸に囲われて表記されているので、操作者は視覚的に認識することができる。
また、ここで表示されるアイコンには、操作者が音声操作を行うための補助的な情報であればよく、必ずしも格納されたコンテンツのグループ分けされたジャンル名ではなく、操作者が次に操作しそうな(潜在的に意図しそうな制御)名称を表示するようにしても良い。図15に示すTV180の表示画面において、発話者が「再生」と言った場合には、現在選択しているアイコン1501に含まれる、「大阪市」、「2017年」および「夏」に関するコンテンツの計93件の再生が始まるように演算部101がコンテンツ管理機器100の各構成を制御し、TV180へ映像等を出力する。
このように、大量の個人コンテンツを一括管理する場合には、既存の階層的又は網羅的な、リモコン、マウス又はタッチベースのGUIではなく、音声による自由なキーワード選択で絞り込んでいけるユーザーインターフェースが、直感的かつ短時間(少ステップ)で所望のコンテンツに到達するように操作できる。また、その視聴者又は操作者を、特定又は推定することで、その人の年齢(知識)又は表現方法(呼び名)などの属性情報に応じて画面表示を更新することで、コンテンツ管理機器100を使う人間にとって自然な使い心地を提供することが可能となる。
なお、上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下の記載に限定されない。
[付記1]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記2]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した前記第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した前記第2の時刻情報を取得するステップと、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した前記第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した前記第2の時刻情報を取得するステップと、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記3]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の場所情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の場所情報を取得するステップと、
前記第2の映像から取得した前記第2の場所情報から所定の距離以内で撮影された前記第1の場所情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の場所情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の場所情報を取得するステップと、
前記第2の映像から取得した前記第2の場所情報から所定の距離以内で撮影された前記第1の場所情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記4]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の時刻情報を取得するステップと、
前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力するステップと、を備え、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の時刻情報を取得するステップと、
前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力するステップと、を備え、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記5]
複数の撮影機器からの映像を入力する入力部と、
前記映像を記録する記憶部と、
前記記憶部に記憶されている前記映像に関する時刻情報と場所情報から、所定の時間内にあり、かつ所定の距離以内で撮影された映像をグループと判別する演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
複数の撮影機器からの映像を入力する入力部と、
前記映像を記録する記憶部と、
前記記憶部に記憶されている前記映像に関する時刻情報と場所情報から、所定の時間内にあり、かつ所定の距離以内で撮影された映像をグループと判別する演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記6]
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した時刻に関する第2の時刻情報とを入力する入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像および前記第2の時刻情報を記録する記憶部と、
前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した時刻に関する第2の時刻情報とを入力する入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像および前記第2の時刻情報を記録する記憶部と、
前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記7]
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した場所に関する第1の場所情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した場所に関する第2の場所情報とを入力する入力部と、
前記第1の映像、前記第1の場所情報、前記第2の映像および前記第2の場所情報を記録する記憶部と、
前記第2の場所情報から所定距離の範囲内に撮影された前記第1の範囲情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した場所に関する第1の場所情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した場所に関する第2の場所情報とを入力する入力部と、
前記第1の映像、前記第1の場所情報、前記第2の映像および前記第2の場所情報を記録する記憶部と、
前記第2の場所情報から所定距離の範囲内に撮影された前記第1の範囲情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記8]
第1の撮影機器で撮影した第1の映像と、前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と、前記第2の映像を撮影した時刻に関する第2の時刻情報と、前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力する
入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像、前記第2の時刻情報および前記距離情報を記録する記憶部と、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と、前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と、前記第2の映像を撮影した時刻に関する第2の時刻情報と、前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力する
入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像、前記第2の時刻情報および前記距離情報を記録する記憶部と、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記9]
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した場所情報を取得するステップと、
前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、
前記グループに属する映像を纏めて表示用コンテンツを作成するステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した場所情報を取得するステップと、
前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、
前記グループに属する映像を纏めて表示用コンテンツを作成するステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
[付記10]
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離と、前記時刻情報に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離と、前記時刻情報に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
[付記11]
複数の映像から特定の映像を選択して表示するコンテンツ表示方法であって、
操作者の音声を入力して音声認識して操作信号に変換するステップと、
前記操作信号に基づき前記複数の前記映像を判別してグループとするステップと、
前記グループに属する映像を纏めて操作するための発話指示であるジャンル名を前記グループに表示する表示用コンテンツを作成するステップと、
前記操作者の音声を入力して音声認識して前記操作者の属性情報を特定するステップと、を備え、
前記ジャンル名は前記属性情報に基づいて決められることを特徴とするコンテンツ表示方法。
複数の映像から特定の映像を選択して表示するコンテンツ表示方法であって、
操作者の音声を入力して音声認識して操作信号に変換するステップと、
前記操作信号に基づき前記複数の前記映像を判別してグループとするステップと、
前記グループに属する映像を纏めて操作するための発話指示であるジャンル名を前記グループに表示する表示用コンテンツを作成するステップと、
前記操作者の音声を入力して音声認識して前記操作者の属性情報を特定するステップと、を備え、
前記ジャンル名は前記属性情報に基づいて決められることを特徴とするコンテンツ表示方法。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記実装を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本発明にかかるコンテンツ管理機器とそのコンテンツ方法では、記録された複数のコンテンツから、プライバシー性又は秘匿性の観点から個人の過去のイベントを適切に検出すること、または音声操作により入力される音声から操作者(発話者)を特定することで、操作者に分かり易く、発話しやすい発話指示を、グループに纏められたコンテンツ毎に分類したうえで提示できることを活用する機器において有用である。特に個人に関する写真又は動画を記録したものだけではなく、論文、小説または新聞などの複数のドキュメントファイル、又は、ニュース番組のコンテンツを、操作者が選択しやすいように属性情報に基づき分類し表示する機器に活用することができる。
1 コンテンツ管理システム
100 コンテンツ管理機器
101 演算部
101A 管理部
101B 提示制御部
101C 受付部
102 I/F部
103 記憶部
104 入出力部
110、120、190 スマートフォン
111、121、141 コンテンツ
130 カメラ
140 記録用カード
150 ルーター
160 インターネット
170 マイク
180 TV
180A 提示部
1101、1102、1103、1104、1105、1106、1107、1301、1311、1401、1402、1403、1404、1501、1502、1503 アイコン
1108 メッセージ
100 コンテンツ管理機器
101 演算部
101A 管理部
101B 提示制御部
101C 受付部
102 I/F部
103 記憶部
104 入出力部
110、120、190 スマートフォン
111、121、141 コンテンツ
130 カメラ
140 記録用カード
150 ルーター
160 インターネット
170 マイク
180 TV
180A 提示部
1101、1102、1103、1104、1105、1106、1107、1301、1311、1401、1402、1403、1404、1501、1502、1503 アイコン
1108 メッセージ
Claims (14)
- (a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部と、
前記記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する管理部とを備える
コンテンツ管理機器。 - 前記第二端末は、繰り返し設定される所定時刻に前記ビーコン信号を送信し、
前記1以上の端末それぞれは、前記所定時刻を含む受信待ち期間内に前記ビーコン信号の受信のための待ち状態をとり、前記受信待ち期間内に前記ビーコン信号を受信したか否かを示す前記履歴を前記記憶部に記憶させる
請求項1に記載のコンテンツ管理機器。 - 前記管理部は、
前記複数の端末により複数の前記コンテンツが生成された場合に、複数の前記コンテンツの撮影時刻の間の期間のうち、所定の時間長を超える期間である無撮影期間によって、複数の前記コンテンツを、それぞれに所定数以上のコンテンツが属する複数のグループにグループ化し、
前記複数のグループのそれぞれについて、当該グループに属する前記所定数以上のコンテンツが撮影された期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、当該グループに属する前記所定数以上のコンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理し、
前記所定の時間長は、前記複数のコンテンツのうち、当該期間の直前又は直後に撮影されたコンテンツの撮影場所と前記複数の端末のユーザの自宅との距離が大きいほど大きい
請求項1又は2に記載のコンテンツ管理機器。 - 複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部と、
前記複数のコンテンツに関連する地域区分を示す文字列を決定する管理部とを備え、
前記管理部は、
前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する
コンテンツ管理機器。 - 前記管理部は、さらに、
前記複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定し、又は、
前記複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定する
請求項4に記載のコンテンツ管理機器。 - 複数のコンテンツと、前記複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している記憶部と、
前記複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部に提示させる提示制御部と、
前記提示制御部が提示させた前記1以上のタグに対するユーザによる操作を受け付ける受付部と、
前記操作を前記受付部が受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付られている1以上のタグを前記提示部に提示させる管理部とを備える
コンテンツ管理機器。 - 前記管理部は、さらに、
前記提示部に提示させる前記1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を前記提示部に提示させる
請求項6に記載のコンテンツ管理機器。 - 前記管理部は、さらに、
前記提示部に提示させる前記1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を前記提示部に提示させる
請求項6又は7に記載のコンテンツ管理機器。 - 複数の端末と、前記複数の端末に接続し、前記複数の端末により生成されたコンテンツを管理するコンテンツ管理機器とを備えるコンテンツ管理システムであって、
前記複数の端末は、生成するコンテンツと、電波を用いたビーコン信号とを送受信し、
前記コンテンツ管理機器は、
(a)前記複数の端末の1つである第一端末により生成されたコンテンツと、(b)前記コンテンツが生成された時刻と、(c)前記時刻を含む期間内に、前記複数の端末のうちの第一端末が送信した前記ビーコン信号を、前記複数の端末のうちの前記第一端末以外の端末が受信成功もしくは失敗しているのかを示す情報と、を記憶している記憶部と、
前記コンテンツが生成された時刻を含む時間帯において、前記複数の端末のうちの前記第一端末とは異なる端末であって、前記第一端末が送信したビーコン信号を受信成功している端末に、前記第一端末が生成したコンテンツの閲覧を許諾する管理部とを備える
コンテンツ管理システム。 - 前記管理部は、さらに、
前記時間帯において、第一端末が受信に成功したビーコンを送信した第二端末に、前記第一端末が生成したコンテンツの閲覧を許諾する
請求項9に記載のコンテンツ管理システム。 - 前記管理部は、さらに、
前記時間帯において、前記第二端末とのビーコンの送信及び受信の何れかが成功した第三端末に、前記第一端末が生成したコンテンツの閲覧を許諾する
請求項10に記載のコンテンツ管理システム。 - コンテンツ管理機器の制御方法であって、
(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したか否かを判定し、
前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する
制御方法。 - コンテンツ管理機器の制御方法であって、
複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部から、前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを取得し、
取得した前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを参照して、前記複数のコンテンツに関連する地域区分を示す文字列を決定し、
前記決定の際には、
前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する
制御方法。 - コンテンツ管理機器の制御方法であって、
複数のコンテンツと、前記複数のコンテンツそれぞれに紐付られている1以上のタグとを記憶している記憶部を参照して、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付られている1以上のタグを提示部に提示させ、
提示させた前記1以上のタグに対するユーザによる操作を受け付け、
前記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付られている1以上のタグを前記提示部に提示させる
制御方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019529674A JPWO2019082606A1 (ja) | 2017-10-24 | 2018-10-01 | コンテンツ管理機器、コンテンツ管理システム、および、制御方法 |
CN201880014400.4A CN110383849A (zh) | 2017-10-24 | 2018-10-01 | 内容管理设备、内容管理系统、以及控制方法 |
CN202210053594.7A CN114625900A (zh) | 2017-10-24 | 2018-10-01 | 内容管理设备、内容管理系统、以及控制方法 |
US16/489,990 US11301512B2 (en) | 2017-10-24 | 2018-10-01 | Content management device, content management system, and control method |
EP18871461.2A EP3702929A4 (en) | 2017-10-24 | 2018-10-01 | CONTENT MANAGEMENT DEVICE, CONTENT MANAGEMENT SYSTEM AND ORDERING PROCESS |
US17/684,962 US20220188348A1 (en) | 2017-10-24 | 2022-03-02 | Content management device, content management system, and control method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204862 | 2017-10-24 | ||
JP2017-204862 | 2017-10-24 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/489,990 A-371-Of-International US11301512B2 (en) | 2017-10-24 | 2018-10-01 | Content management device, content management system, and control method |
US17/684,962 Continuation US20220188348A1 (en) | 2017-10-24 | 2022-03-02 | Content management device, content management system, and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019082606A1 true WO2019082606A1 (ja) | 2019-05-02 |
Family
ID=66247367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/036730 WO2019082606A1 (ja) | 2017-10-24 | 2018-10-01 | コンテンツ管理機器、コンテンツ管理システム、および、制御方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11301512B2 (ja) |
EP (1) | EP3702929A4 (ja) |
JP (2) | JPWO2019082606A1 (ja) |
CN (2) | CN110383849A (ja) |
WO (1) | WO2019082606A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609276A (zh) * | 2021-08-26 | 2021-11-05 | 武汉夜莺科技有限公司 | 一种群组中客户的管理方法、装置及介质 |
WO2024161607A1 (ja) * | 2023-02-02 | 2024-08-08 | 株式会社 ミックウェア | 情報処理装置、ユーザ端末、および情報処理方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191015A (ja) * | 2000-09-29 | 2002-07-05 | Casio Comput Co Ltd | 撮影画像管理装置、撮影画像管理方法及び撮影画像管理プログラム |
JP2005174060A (ja) * | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | 画像分類装置ならびに画像分類方法およびプログラム |
WO2007013432A1 (ja) * | 2005-07-26 | 2007-02-01 | Matsushita Electric Industrial Co., Ltd. | 画像データ管理装置および画像データ管理方法 |
JP2010113390A (ja) * | 2008-11-04 | 2010-05-20 | Hands:Kk | 商品情報検索装置、方法、及びコンピュータプログラム |
JP2010145087A (ja) | 2008-12-16 | 2010-07-01 | Xanavi Informatics Corp | ナビゲーション装置およびナビゲーション方法 |
WO2011114634A1 (ja) * | 2010-03-18 | 2011-09-22 | パナソニック株式会社 | データ処理装置およびデータ処理方法 |
JP2014048534A (ja) | 2012-08-31 | 2014-03-17 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2014145932A (ja) | 2013-01-29 | 2014-08-14 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2016001405A (ja) * | 2014-06-11 | 2016-01-07 | ヤフー株式会社 | 配信装置、配信方法および配信プログラム |
WO2018179604A1 (ja) * | 2017-03-27 | 2018-10-04 | 株式会社Nttドコモ | データ共有判断装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10285515A (ja) * | 1997-04-10 | 1998-10-23 | Minolta Co Ltd | 画像記録再生システム |
JP3633463B2 (ja) | 2000-08-31 | 2005-03-30 | 株式会社デンソー | 車載用表示装置 |
US7970240B1 (en) * | 2001-12-17 | 2011-06-28 | Google Inc. | Method and apparatus for archiving and visualizing digital images |
US7956905B2 (en) * | 2005-02-28 | 2011-06-07 | Fujifilm Corporation | Titling apparatus, a titling method, and a machine readable medium storing thereon a computer program for titling |
CN101253537B (zh) * | 2005-05-12 | 2012-10-10 | 富士胶片株式会社 | 影集制作装置、影集制作方法及程序 |
KR100679049B1 (ko) * | 2005-09-21 | 2007-02-05 | 삼성전자주식회사 | 인물 및 장소정보를 제공하는 썸네일에 의한 사진탐색 방법및 그 장치 |
US7663671B2 (en) * | 2005-11-22 | 2010-02-16 | Eastman Kodak Company | Location based image classification with map segmentation |
US8842197B2 (en) * | 2005-11-30 | 2014-09-23 | Scenera Mobile Technologies, Llc | Automatic generation of metadata for a digital image based on ambient conditions |
US20070185980A1 (en) * | 2006-02-03 | 2007-08-09 | International Business Machines Corporation | Environmentally aware computing devices with automatic policy adjustment features |
US7668867B2 (en) * | 2006-03-17 | 2010-02-23 | Microsoft Corporation | Array-based discovery of media items |
US8676001B2 (en) * | 2008-05-12 | 2014-03-18 | Google Inc. | Automatic discovery of popular landmarks |
US8626699B2 (en) * | 2009-09-16 | 2014-01-07 | Microsoft Corporation | Construction of photo trip patterns based on geographical information |
JP5411641B2 (ja) * | 2009-09-29 | 2014-02-12 | 富士フイルム株式会社 | 画像分類装置、画像分類システム、画像分類方法、プログラム、および記録媒体 |
US9223461B1 (en) * | 2010-12-08 | 2015-12-29 | Wendell Brown | Graphical user interface |
JP5782918B2 (ja) * | 2011-08-24 | 2015-09-24 | 大日本印刷株式会社 | 通信端末装置、サーバ装置及びプログラム |
JP2013192134A (ja) * | 2012-03-15 | 2013-09-26 | Sony Corp | コンテンツ再生装置およびコンテンツ再生システム |
US9607024B2 (en) * | 2012-06-13 | 2017-03-28 | Google Inc. | Sharing information with other users |
US20140218242A1 (en) * | 2013-02-01 | 2014-08-07 | NanoSatisfi Inc. | Computerized nano-satellite platform for large ocean vessel tracking |
GB2533759A (en) * | 2014-10-01 | 2016-07-06 | Asda Stores Ltd | System and method for surveying display units in a retail store |
US10031925B2 (en) * | 2014-10-15 | 2018-07-24 | Thinkcx Technologies, Inc. | Method and system of using image recognition and geolocation signal analysis in the construction of a social media user identity graph |
KR20170011177A (ko) * | 2015-07-21 | 2017-02-02 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR102479495B1 (ko) * | 2015-09-07 | 2022-12-21 | 엘지전자 주식회사 | 이동단말기 및 그의 동작 방법 |
CN105635441B (zh) * | 2015-12-17 | 2019-04-19 | 努比亚技术有限公司 | 移动终端及其显示处理方法 |
JP2017152842A (ja) * | 2016-02-23 | 2017-08-31 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US11100107B2 (en) * | 2016-05-16 | 2021-08-24 | Carbonite, Inc. | Systems and methods for secure file management via an aggregation of cloud storage services |
-
2018
- 2018-10-01 EP EP18871461.2A patent/EP3702929A4/en not_active Withdrawn
- 2018-10-01 WO PCT/JP2018/036730 patent/WO2019082606A1/ja unknown
- 2018-10-01 JP JP2019529674A patent/JPWO2019082606A1/ja active Pending
- 2018-10-01 CN CN201880014400.4A patent/CN110383849A/zh active Pending
- 2018-10-01 CN CN202210053594.7A patent/CN114625900A/zh active Pending
- 2018-10-01 US US16/489,990 patent/US11301512B2/en active Active
-
2020
- 2020-09-03 JP JP2020148179A patent/JP2021005390A/ja not_active Withdrawn
-
2022
- 2022-03-02 US US17/684,962 patent/US20220188348A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191015A (ja) * | 2000-09-29 | 2002-07-05 | Casio Comput Co Ltd | 撮影画像管理装置、撮影画像管理方法及び撮影画像管理プログラム |
JP2005174060A (ja) * | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | 画像分類装置ならびに画像分類方法およびプログラム |
WO2007013432A1 (ja) * | 2005-07-26 | 2007-02-01 | Matsushita Electric Industrial Co., Ltd. | 画像データ管理装置および画像データ管理方法 |
JP2010113390A (ja) * | 2008-11-04 | 2010-05-20 | Hands:Kk | 商品情報検索装置、方法、及びコンピュータプログラム |
JP2010145087A (ja) | 2008-12-16 | 2010-07-01 | Xanavi Informatics Corp | ナビゲーション装置およびナビゲーション方法 |
WO2011114634A1 (ja) * | 2010-03-18 | 2011-09-22 | パナソニック株式会社 | データ処理装置およびデータ処理方法 |
JP2014048534A (ja) | 2012-08-31 | 2014-03-17 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2014145932A (ja) | 2013-01-29 | 2014-08-14 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2016001405A (ja) * | 2014-06-11 | 2016-01-07 | ヤフー株式会社 | 配信装置、配信方法および配信プログラム |
WO2018179604A1 (ja) * | 2017-03-27 | 2018-10-04 | 株式会社Nttドコモ | データ共有判断装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3702929A4 |
Also Published As
Publication number | Publication date |
---|---|
JP2021005390A (ja) | 2021-01-14 |
EP3702929A4 (en) | 2021-01-13 |
CN114625900A (zh) | 2022-06-14 |
US20200019566A1 (en) | 2020-01-16 |
JPWO2019082606A1 (ja) | 2019-11-14 |
US11301512B2 (en) | 2022-04-12 |
US20220188348A1 (en) | 2022-06-16 |
EP3702929A1 (en) | 2020-09-02 |
CN110383849A (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10739958B2 (en) | Method and device for executing application using icon associated with application metadata | |
EP2843919B1 (en) | Method and apparatus for providing service by using screen mirroring | |
US9652659B2 (en) | Mobile device, image reproducing device and server for providing relevant information about image captured by image reproducing device, and method thereof | |
US20160034539A1 (en) | System and method of managing metadata | |
KR101633824B1 (ko) | 배경 화면 설정 방법 및 이를 이용한 휴대 단말기 | |
CN102473304A (zh) | 元数据标记系统、图像搜索方法和设备、及其用于标记手势的方法 | |
KR20130090947A (ko) | 서비스 연동 수행 방법과 이를 위한 시스템 | |
US20140324858A1 (en) | Information processing apparatus, keyword registration method, and program | |
EP2835981A1 (en) | Information processing device, information processing method, and program | |
US20220188348A1 (en) | Content management device, content management system, and control method | |
CN103516712A (zh) | 装置、信息处理方法和程序 | |
KR20160012269A (ko) | 소셜 네트워크 서비스 시스템에서 멀티미디어 랭킹 서비스 제공 방법 및 장치 | |
JP6403286B2 (ja) | 情報管理方法及び情報管理装置 | |
US20120072869A1 (en) | Copy supporting device, terminal device, copy support method, and copy supporting program | |
KR101850501B1 (ko) | 역사 컨텐츠 제공 시스템 | |
JP2006080850A (ja) | 通信端末とその通信方法 | |
KR101831663B1 (ko) | 스마트 단말에서 생태관광 컨텐츠 표시 방법 | |
CN116257159A (zh) | 多媒体内容的分享方法、装置、设备、介质及程序产品 | |
CN110366002B (zh) | 视频文件合成方法、系统、介质和电子设备 | |
KR20150064613A (ko) | 영상 표시 기기 및 그의 동작 방법 | |
KR20170025732A (ko) | 여행 기록을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체 | |
KR101922070B1 (ko) | 단말 장치, 검색 서버 및 이에 의한 검색 결과 제공 방법 | |
JP7246289B2 (ja) | 情報処理装置および情報処理方法 | |
KR20200069936A (ko) | 미디어에 포함된 정보를 제공하는 장치 및 그 방법 | |
JP2016001785A (ja) | コンテンツの視聴者に情報を提供するための装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2019529674 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2018871461 Country of ref document: EP Effective date: 20200525 |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18871461 Country of ref document: EP Kind code of ref document: A1 |