WO2018034002A1 - 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法 - Google Patents

画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法 Download PDF

Info

Publication number
WO2018034002A1
WO2018034002A1 PCT/JP2016/074256 JP2016074256W WO2018034002A1 WO 2018034002 A1 WO2018034002 A1 WO 2018034002A1 JP 2016074256 W JP2016074256 W JP 2016074256W WO 2018034002 A1 WO2018034002 A1 WO 2018034002A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
attribute
unit
display
image display
Prior art date
Application number
PCT/JP2016/074256
Other languages
English (en)
French (fr)
Inventor
小上祐一郎
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2018534254A priority Critical patent/JP6762366B2/ja
Priority to PCT/JP2016/074256 priority patent/WO2018034002A1/ja
Publication of WO2018034002A1 publication Critical patent/WO2018034002A1/ja
Priority to US16/277,880 priority patent/US20190180042A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to a method for managing image data.
  • smartphones and tablet terminals have a feature that they have a larger LCD screen than digital cameras, making it easy to show others their images and view them with multiple people. For this reason, in order to show people images stored in the memory, the owner (hereinafter referred to as the “owner”) may temporarily hand over the smartphone to an acquaintance (hereinafter referred to as the “acquaintance”) or browse the screen together with the acquaintance. However, there is a situation where the image data is scrolled.
  • Patent Document 1 A technique is known in which a specific image is not shown to others during a specific time zone (see, for example, Patent Document 1).
  • a technology is known in which the owner distinguishes between access-permitted data that permits access to those other than the owner and access-permitted data that does not permit access, and protects privacy (for example, see Patent Document 3).
  • the present invention aims to limit browsing of images that are not desired to be browsed.
  • An image display device including a display unit that displays an image includes a storage unit, an authentication unit, and a control unit.
  • the storage unit stores an image and attribute information given to the image.
  • the authentication unit authenticates whether or not a predetermined user is included in the viewers of the image display device when an instruction to display the image on the display unit is given.
  • the control unit restricts display of the image on the display unit based on the attribute information when a user other than a user designated in advance is included in the viewers of the image display device.
  • FIG. 1 is a diagram illustrating an example of a configuration of a mobile terminal according to an embodiment of the present invention.
  • the portable terminal 100 includes a control unit 110, a touch panel 120, and a storage unit 130.
  • the mobile terminal 100 is an image display device, for example.
  • the touch panel 120 includes a display unit 121 and an input unit 122.
  • the display unit 121 is a Liquid Crystal Display (LCD), and displays display objects (images such as characters and icons), image data, and the like.
  • the input unit 122 detects the touch by the user, and detects the time of touch and the coordinate value of the touched position.
  • the input unit 122 outputs each detected information to the control unit 110.
  • the input unit 122 may be realized by any method such as a resistive film method, an optical method, and a capacitive coupling method used in a touch panel.
  • the storage unit 130 is, for example, a Read Only Memory (ROM), a Random Access Memory (RAM), an Electrically Erasable Programmable Read-Only Memory (EEPROM), a nonvolatile RAM, a flash memory, a Hard Disk Drive (HDD), or the like.
  • the storage unit 130 stores application programs processed by the control unit 110, image data 131, owner information used for face authentication of an owner (hereinafter also referred to as a user), and the like.
  • the storage unit 130 also stores image data management information Data ⁇ Base (DB) 132 and activity information DB 133.
  • the image data management information DB 132 is a database that records management information of each image data stored in the mobile terminal 100.
  • the activity information DB 133 is a database that records the actions of the owner of the mobile terminal 100.
  • the mobile terminal 100 includes a camera.
  • the camera is a camera provided on the front surface and the back surface of the mobile terminal 100 and has a photographing function.
  • One camera is used for photographing a user's face.
  • An image obtained by photographing the user's face is used by the control unit 110 for face authentication, iris authentication, and the like.
  • the other camera is used when the user photographs an object to be photographed.
  • the control unit 110 includes a terminal operation monitoring unit 111, an activity information recording unit 112, an image data management information control unit 113, an object attribute management unit 114, a scene attribute management unit 115, an image analysis unit 116, an authentication unit 117, and an image data access.
  • a control unit 118 is provided.
  • the control unit 110 can automatically assign an attribute corresponding to an image photographed using a camera based on activity information representing the activity of the owner of the mobile terminal 100.
  • the terminal operation monitoring unit 111 monitors whether the mobile terminal 100 is in use.
  • the activity information recording unit 112 acquires information on the current position from, for example, the Global Position System (GPS) and stores the activity information of the owner of the mobile terminal 100 in the activity in the storage unit 130. Record in the information DB 133.
  • GPS Global Position System
  • the image analysis unit 116 analyzes the captured image.
  • the object attribute management unit 114 manages the object attribute representing the object shown in the image such as a person or a meal in association with the image.
  • the scene attribute management unit 115 manages the scene attribute indicating the scene in which the image of a trip or the like was taken in association with the image.
  • the image data management information control unit 113 stores image data recorded in the image data management information DB 132 stored in the storage unit 130 based on management information such as the object attribute management unit 114 and the scene attribute management unit 115. Control management information.
  • the control unit 110 is not desired by the owner in cases where the owner temporarily passes the portable terminal 100 storing various image data to the acquaintance or browses the portable terminal 100 together to show the image data to an acquaintance. Control not to display image data.
  • the authentication unit 117 captures a person using the mobile terminal 100 with a camera, and the person is registered in advance. It is authenticated whether or not the user of the mobile terminal 100 being used is the user (that is, the owner).
  • the image data access control unit 118 controls the image displayed on the display unit 121.
  • the authentication unit 117 may authenticate whether or not a person other than the owner of the mobile terminal 100 exists in the person existing in the image obtained by the camera. In this case, if a person other than the owner of the mobile terminal 100 is captured, the image data access control unit 118 restricts the images displayed on the display unit 121.
  • the control unit 110 performs control to display an image on the display unit 121 when all of the persons existing in the image obtained by the camera are registered (permitted) users in advance.
  • FIG. 2A is a diagram for explaining an example of processing of the control unit when storing an image.
  • FIG. 2B is a diagram illustrating an example of processing performed by the control unit during image browsing.
  • the control unit 110 gives the object attribute and the scene attribute to the image.
  • the object attribute and the scene attribute are given by the object attribute management unit 114 and the scene attribute management unit 115 based on the image analysis result.
  • the object attribute management unit 114 assigns “person 001” as the object attribute to the newly photographed image.
  • the scene attribute management unit 115 assigns “day trip 001” as the scene attribute to the image.
  • the image storage includes cases such as when a photograph is taken, when a photograph is downloaded from a browser, and when screen capture is performed on the mobile terminal 100.
  • the mobile terminal 100 is handed over to the acquaintance of the owner.
  • the mobile terminal 100 stores a large number of images in addition to the image shown in FIG. 2A.
  • an object attribute and a scene attribute are given to each image stored in the mobile terminal 100.
  • the owner sets the browsing mode in the portable terminal 100 in advance.
  • the browsing mode is selected from two types of object mode and scene mode.
  • the object mode is selected, the image data access control unit 118 in the control unit 110 determines whether or not to display an image based on the object attribute.
  • the scene mode is selected, the image data access control unit 118 in the control unit 110 determines whether or not to display an image based on the scene attribute.
  • the scene mode is selected by the owner and the scene mode is set in the portable terminal 100.
  • the authentication unit 117 uses the camera. It is authenticated whether or not the user using the mobile terminal 100 is the owner of the mobile terminal 100.
  • the image data access control unit 118 determines whether or not to display the next image (new image) based on the scene attribute.
  • the image data access control unit 118 permits browsing of the next image.
  • the image data access control unit 118 does not permit browsing of the next image. For example, if the scene attribute of the next image is “accommodation trip 004”, the image is not displayed on the display unit 121. In this way, when a user (acquaintance) who is not the owner is captured in the camera, the image data access control unit 118 restricts an image having an attribute different from that of the currently displayed image from being displayed to the acquaintance. Can do.
  • the control unit 110 of the portable terminal 100 automatically assigns the object attribute and the scene attribute to the image data. For this purpose, the control unit 110 collects activity information of the owner of the mobile terminal 100 and records it in the activity information DB 133.
  • the activity information recording unit 112 determines that the owner of the form terminal 100 It is determined that the patient is “sleeping”. Then, after it is determined as “sleeping”, when a change in the position of the mobile terminal 100 or an operation on the mobile terminal 100 is detected, the activity information recording unit 112 indicates that the owner of the mobile terminal 100 has started an activity. judge.
  • a predetermined time for example, 4 hours
  • FIG. 3 is a diagram for explaining an example of the activity information DB.
  • the activity information recording unit 112 collects the time and place at the start of the activity on the basis of the position information acquired from the GPS, and records it in the activity information DB 133.
  • the activity information recording unit 112 identifies the base (home town) of the owner's activity by accumulating the records.
  • the activity start of a day detects the owner's activity start with the acceleration sensor etc. with which the portable terminal 100 was equipped.
  • the activity information DB 133 includes items of activity start position, activity start time (for example, the past 90 days), total number of times, and home town.
  • the activity start position is information on the location at the start of activity on the 1st, collected from GPS.
  • Kawasaki X Chome for example, after staying at Kawasaki X Chome for 2 nights in Karuizawa Y Chome on a trip, after moving and staying at Osaka Z Chome, the second living base, Kawasaki X Chome at home I'm going home. Therefore, Kawasaki X chome, Karuizawa Y chome, Osaka Z chome, etc. are registered in the activity information DB 133 as activity start positions.
  • the activity information DB 133 of FIG. 3 is the time when the activity starts on the 1st.
  • the activity is started in Kawasaki X-chome at 7:30 on September 20.
  • Kawasaki X-chome at 7:40 on December 16th, 8:20 on December 17th, 8am on December 18th, Karuizawa Y-chome, December 19th The owner's activities started in Osaka Z-chome at 6:30, and again in Kawasaki X-chome at 7:35 on December 20.
  • the total number of times is the number of times the owner's activity has started at each activity start position.
  • the total number of activity start positions for the past 90 days is 58 for Kawasaki X-chome, 2 for Karuizawa Y-chome, and 30 for Osaka Z-chome. Therefore, Kawasaki X chome and Osaka Z chome are registered as home towns in the activity information DB 133 of FIG.
  • the activity information recording unit 112 determines the home town of the owner based on the activity information of the owner of the mobile terminal 100. By determining the home town, for example, when the mobile terminal 100 moves to a place other than the home town, the mobile terminal 100 can determine that it is currently traveling.
  • FIG. 4 is a diagram illustrating an example of processing for assigning attributes to each image data.
  • FIG. 4 illustrates an example in which the object attribute management unit 114 and the scene attribute management unit 115 assign the object attribute and the scene attribute to each image.
  • the owner gets up at 7:40 on December 16 at home town (Kawasaki) and then moves to Karuizawa.
  • the owner takes a person image 401 at 16:00 on the same day while moving to Karuizawa, and takes a meal image 402 at 20:02.
  • the image analysis unit 116 performs image analysis.
  • the object attribute management unit 114 assigns “person 01” representing a person attribute to be given when a person appears in the image to the person image 401, and represents a meal attribute to be given when food appears in the image.
  • “Meal 01” is assigned to the meal image 402. Note that the numbers included in the attribute information are identification information for distinguishing between persons having different attributes or people.
  • the scene attribute management unit 115 At the time when the person image 401 and the meal image 402 are photographed, the scene attribute management unit 115 once assigns the attribute “day trip” or “other” to the person image 401 and the meal image 402. Since the scene has already moved from home town (Kawasaki) to Karuizawa, the scene attribute management unit 115 assigns the attribute “day trip” to the image to determine that the user is currently traveling. However, at this stage, the scene attribute management unit 115 cannot determine whether the trip is for a plurality of days or a day trip.
  • the owner takes a meal image 403 at 8:40 on December 17 after staying in Karuizawa. Then, when the image is taken, the image analysis unit 116 performs image analysis.
  • the object attribute management unit 114 assigns the object attribute “meal 02” to the meal image 403.
  • the scene attribute management unit 115 determines that the trip is an overnight trip over multiple days.
  • the scene attribute management unit 115 assigns “hotel 01” representing the attribute of the overnight trip to the meal image 403. Further, the scene attribute management unit 115 updates the scene attribute of the person image 401 and the meal image 402 taken on the previous day to “hotel 01”.
  • the owner takes a meal image 404 at 10:20 at Karuizawa at 8:45 on December 17, and a memo image 405 at 10:20, and a meal image 406 at 12:15.
  • the image analysis unit 116 performs image analysis.
  • the object attribute management unit 114 assigns the object attribute “meal 02” to the meal image 404 and the object attribute “meal 03” to the meal image 406. For example, the object attribute management unit 114 assigns “me 01” representing a memo attribute to a memo image 405 in which a memo that is not a meal or a person is taken.
  • the memo image refers to image data downloaded from a browser, screen-captured images, images attached to e-mails or Social Networking Services (SNS), etc. Not included. Since the scene attribute management unit 115 determines that the current trip is an overnight trip over a plurality of days, the scene attribute management unit 115 assigns the attribute “hotel 01” to the meal image 404 and the meal image 406. The scene attribute management unit 115 assigns “other 01”, which is an attribute representing “others” to be given in addition to day trips and overnight trips, to the memo image 405.
  • the owner will take a portrait image 407 in Karuizawa on December 18th. Thereafter, the owner moves to Osaka (Home Town).
  • the object attribute management unit 114 assigns the attribute “person 02” to the person image 407.
  • the scene attribute management unit 115 assigns the attribute “hotel 01” to the person image 407.
  • the owner moves from Osaka (Home Town) to Kawasaki (Home Town). At that time, the owner captures a person image 408 and a person image 409.
  • the target object attribute management unit 114 assigns the attribute “person 03” to the person image 408 and the person image 409.
  • the scene attribute management unit 115 assigns the attribute “other 02” to the person image 408 and the person image 409.
  • the attribute of a day trip or an overnight trip is not provided, but another attribute is provided.
  • the owner takes a person image 410 and an object image 411 in the Makuhari Event Hall where the exhibition will be held on December 21. Further, the owner takes a meal image 412 at Kaihin Makuhari Station on the way home. Then, when the image is taken, the image analysis unit 116 performs image analysis.
  • the target object attribute management unit 114 assigns the attribute “person 04” to the person image 410.
  • the object attribute management unit 114 assigns the attribute “object 01” to the object image 411 in which the object is photographed.
  • the target object attribute management unit 114 assigns the attribute “meal 04” to the meal image 412.
  • the scene attribute management unit 115 assigns “day 01” representing a day return attribute to the person image 410 and the object image 411.
  • the scene attribute management unit 115 assigns “day 02” representing the day return attribute to the meal image 412.
  • the owner takes a landscape image 413 and a meal image 414 on December 22. Then, when the image is taken, the image analysis unit 116 performs image analysis.
  • the object attribute management unit 114 assigns the attribute “other 02” to the landscape image 413 and the attribute “meal 05” to the meal 414.
  • the scene attribute management unit 115 assigns the attribute “other 03” to the scenery image 413 and the meal image 414.
  • the mobile terminal 100 performs image analysis on each image and assigns an object attribute and a scene attribute.
  • object attributes and scene attributes are merely examples, and are not limited.
  • FIG. 5 is a diagram for explaining an example of the image data management information DB.
  • the image data management information DB 132 includes items of identifier (ID), departure place, shooting time, location information, facility name, object attribute, and scene attribute.
  • ID is identification information for identifying each of the person image 401 to the meal image 414 in FIG.
  • the departure place is the place where the activity information recording unit 112 detects the start of activity on the 1st.
  • the photographing time is the time when each of the person image 401 to the meal image 414 is photographed.
  • the position information is information on positions where the images of the person image 401 to the meal image 414 are taken, and is acquired by GPS.
  • the facility name is information indicating whether or not the position where the image is taken is a certain facility based on the position information.
  • the object attribute is an object attribute assigned to each image.
  • the scene attribute is a scene attribute given to each image.
  • the mobile terminal 100 determines based on the result of image analysis that a person or a meal is in the image, and assigns an object attribute.
  • the mobile terminal 100 in the example of FIGS. 4 and 5 is determined to be traveling overnight because images are taken at locations away from the home town for a plurality of days from December 16 to 18. Then, an attribute of accommodation trip is given to the image.
  • the portable terminal 100 determines that it is a day trip when the image is taken at a place away from the home town as on December 21, and adds a day trip attribute to the image. Thus, the mobile terminal 100 automatically determines the scene attribute based on the position information.
  • the mobile terminal 100 determines that the user (acquaintance) who is not the owner is in the camera, the image data access control unit 118 It is possible to limit the display of an image having an attribute different from that of the currently displayed image to an acquaintance.
  • FIG. 6 is a diagram for explaining an example of the hardware configuration of the mobile terminal.
  • the portable terminal 100 includes the communication module 11, the camera 12, the memory 13, the processor 14, the drive device 15, the storage device 16, the storage medium 16, the microphone 17, the speaker 18, the input / output device 19, the sensor 20, the power device 21, and the bus. 22.
  • the processor 14 is an arbitrary processing circuit such as Central Processing Unit.
  • the processor 14 operates as the control unit 110 in the mobile terminal 100.
  • the processor 14 can execute, for example, a program stored in the storage medium 16.
  • the memory 13 operates as the storage unit 130 and stores the image data 131, the image data management information DB 132, and the activity information DB 133. Further, the memory 13 appropriately stores data obtained by the operation of the processor 14 and data used for processing of the processor 14.
  • the input / output device 19 is realized as an input device such as a button, a keyboard, a mouse, and a touch panel, and further realized as an output device such as a display.
  • the bus 22 can exchange data among the communication module 11, camera 12, memory 13, processor 14, drive device 15, storage medium 16, microphone 17, speaker 18, input / output device 19, and sensor 20. Connecting.
  • the drive device 15 is used to operate the storage medium 16 and provides the program and data stored in the storage medium 16 to the processor 14 as appropriate.
  • the communication module 11 is a module that controls communication with other terminals and other devices. Data transmitted / received by the communication module 11 is appropriately processed by the processor 14.
  • the camera 12 is provided on the front surface and the back surface of the mobile terminal 100 and has a function of capturing an image.
  • the microphone 17 is a device through which a user using a mobile terminal inputs voice.
  • the speaker 18 is a device that outputs sound received by the mobile terminal as sound so that the user can hear it.
  • the sensor 20 is a sensor group such as an acceleration sensor, an illuminance sensor, and a proximity sensor.
  • the power device 21 supplies power for operating the mobile terminal 100.
  • FIG. 7 is a flowchart for explaining an example of an activity information DB registration and update process.
  • the terminal operation monitoring unit 111 monitors the operation of the terminal (whether the owner has carried the terminal or operated it) using the acceleration sensor of the sensor 20 (step S101).
  • the terminal operation monitoring unit 111 determines whether the owner is sleeping based on whether the operation of the terminal has not been performed for a predetermined time (for example, 4 hours) (step S102). If the owner is not sleeping (NO in step S102), the terminal operation monitoring unit 111 repeats the process from step S101.
  • the terminal operation monitoring unit 111 monitors whether the owner has awakened from sleep and started the activity of the day based on the acceleration sensor of the sensor 20 or the like. (Step S103). The terminal operation monitoring unit 111 determines whether the mobile terminal 100 has been moved or operated based on an acceleration sensor of the sensor 20 and the like, and determines whether the owner has started an activity (step S104). ). If the owner has not started the activity (NO in step S104), the terminal operation monitoring unit 111 repeats the process from step S103.
  • the activity information recording unit 112 acquires the location information from the GPS and registers it in the activity information DB 133 (step S105).
  • the activity information recording unit 112 acquires time information and registers it in the activity information DB 133 (step S106).
  • the activity information recording unit 112 updates the total number of times in the activity information DB 133 based on the registered position information and time information (step S107).
  • the activity information recording unit 112 updates the home town of the activity information DB 133 based on the registered position information and time information (step S108).
  • the activity information recording unit 112 determines the home town of the owner based on the activity information of the owner of the mobile terminal 100. By determining the home town, for example, when the mobile terminal 100 moves to a place other than the home town, the mobile terminal 100 can determine that it is currently traveling.
  • FIG. 8 is a flowchart for explaining an example of processing related to attribute registration at the time of image storage.
  • the image data management information control unit 113 stores the image data in the storage unit 130 (step S201).
  • the image data management information control unit 113 acquires the current position from the GPS and registers it in the image data management information DB 132 in association with the stored image (step S202).
  • the image data management information control unit 113 acquires the current time and registers it in the image data management information DB 132 in association with the stored image (step S203).
  • the target object attribute management unit 114 registers the target object attribute in the image data management information DB 132 in association with the stored image (step S204).
  • the scene attribute management unit 115 registers the scene attribute in the image data management information DB 132 in association with the stored image (step S205).
  • FIG. 9 is a flowchart illustrating an example of processing of the object attribute management unit.
  • the flowchart of FIG. 9 explains an example of processing of the object attribute management unit 114 in step S204 of FIG.
  • the object attribute management unit 114 determines whether the image is a memo image (step S301). If the image is not a memo image (NO in step S301), the object attribute management unit 114 analyzes the image and determines whether the image is a meal image (step S302). When the image is not a meal image (NO in step S302), the object attribute management unit 114 performs image analysis and determines whether the image is a person image (step S303). When the image is not a person image (NO in step S304), the object attribute management unit 114 determines the object attribute of the image as “others” (step S304).
  • the object attribute management unit 114 registers the object attribute corresponding to the image in the image data management information DB 132 based on the attribute determination result of step S301 to step S304 of each image (step S305). If it is determined that the image is a memo image (YES in step S301), the object attribute management unit 114 stores the object attribute representing “memo” in association with the image. If it is determined that the image is a meal image (YES in step S302), the target object attribute management unit 114 stores a target object attribute representing “meal” in association with the image. If it is determined that the image is a person image (YES in step S303), the target object attribute management unit 114 stores a target object attribute representing "person” in association with the image.
  • FIG. 10 illustrates an example of processing of the scene attribute management unit.
  • the flowchart in FIG. 10 describes an example of processing of the scene attribute management unit 115 in step S205 in FIG.
  • the scene attribute management unit 115 determines whether the image is a memo image (step S401). If the image is not a memo image (NO in step S401), the scene attribute management unit 115 determines whether or not the image is an image during an overnight trip (step S402). If the image is not an overnight trip image (NO in step S402), the scene attribute management unit 115 determines whether the image is a day trip image (step S403). If the image is not a day trip image (NO in step S404), or if the image is a memo image (YES in step S401), the scene attribute management unit 115 stores the scene attribute of the image as “others” (step) S404).
  • step S402 If the image is an image during an overnight trip (YES in step S402), the scene attribute management unit 115 executes an accommodation attribute registration process (step S405). If the image is an image of a day trip (YES in step S403), the scene attribute management unit 115 executes a day attribute registration process (step S406). When the process of step S404, step S405, or step S406 ends, the scene attribute management unit 115 ends the process of assigning (registering) a scene attribute to the image.
  • FIG. 11 is a flowchart for explaining an example of the memo image determination process in the object attribute management unit and the scene attribute management unit.
  • FIG. 11 is a diagram for explaining in detail the processing of step S301 and step S401 in the object attribute management unit 114 and the scene attribute management unit 115.
  • the object attribute management unit 114 determines whether or not the image is an image taken by a camera (step S501). If the image is an image taken by a camera (YES in step S501), the object attribute management unit 114 determines that the image is not a memo image (step S502). If the image is not an image captured by the camera (NO in step S501), the object attribute management unit 114 determines to add a memo attribute to the image (step S503). In the case of the process of step S401, the scene attribute management unit 115 executes the processes of step S501 to step S503.
  • FIG. 12 is a flowchart for explaining an example of processing related to the meal image determination processing.
  • FIG. 12 is a diagram for explaining in detail an example of the meal image determination process in step S302 of FIG.
  • the image analysis unit 116 performs image analysis (step S601).
  • the object attribute management unit 114 determines whether food is shown in the image (step S602). If no food is shown in the image (NO in step S602), the object attribute management unit 114 determines that the image is not a meal image (step S603). When the process of step S603 ends, the object attribute management unit 114 ends the determination process of whether or not the image is a meal image.
  • the object attribute management unit 114 determines whether the previous image is a meal image (step S604). When the image captured immediately before is a meal image (YES in step S604), the object attribute management unit 114 associates the date and time with the shooting of the image captured immediately before and the latest image. It is determined whether or not there is (step S605). If the date / time and location are related to the shooting of the previous image and the latest image (YES in step S605), the object attribute management unit 114 selects the object attribute of the previous image. It is determined that the same attribute (meal attribute) is added to the image (step S606).
  • step S604 If the previous image is not a meal image (NO in step S604), or if the previous image and the latest image are not related (NO in step S605), the object attribute management unit 114 Then, it is determined that the meal attribute to which the new number is assigned is assigned to the image (step S607). In step S606 and step S607, when it is determined that a meal attribute is to be added to the image, the meal image determination process ends.
  • FIG. 13 is a flowchart for explaining an example of processing related to the person image determination processing.
  • FIG. 13 is a diagram for explaining in detail an example of the human image determination process in step S303 of FIG.
  • the image analysis unit 116 performs image analysis (step S701).
  • the object attribute management unit 114 determines whether or not a person is shown in the image (step S702). If no person is shown in the image (NO in step S702), the object attribute management unit 114 determines that the image is not a person image (step S703). When the process of step S703 ends, the object attribute management unit 114 ends the determination process of whether or not the image is a person image.
  • the target object attribute management unit 114 determines whether the previous image is a person image (step S704). If the image captured immediately before is a person image (YES in step S704), the object attribute management unit 114 matches the characteristics of the person captured in the latest image and the image captured in the previous time. It is determined whether or not there is (step S705). If the characteristics of the person captured in the latest image and the image captured in the previous image match (YES in step S705), the object attribute management unit 114 determines the object attribute of the image captured in the previous time. It is determined that the same attribute (person attribute) is added to the image (step S706).
  • step S704 If the previous image is not a person image (NO in step S704), if the previous image is not the same as the characteristics of the person captured in the latest image (NO in step S705), the target The attribute management unit 114 determines to assign the person attribute assigned the new number to the image (step S707). In step S706 and step S707, when it is determined to add a person attribute to the image, the person image determination process ends.
  • FIG. 14 is a flowchart for explaining an example of the overnight trip determination process.
  • FIG. 14 is a diagram illustrating in detail an example of the overnight trip determination process in step S402 of FIG.
  • the scene attribute management unit 115 confirms the activity start position of the image (step S801).
  • the scene attribute management unit 115 determines whether the activity start position is other than the home town (step S802). If the activity start position is other than home town (NO in step S802), the scene attribute management unit 115 determines that the activity start position is not an overnight trip (step S803). When the activity start position is other than the home town (YES in step S802), the scene attribute management unit 115 determines to provide the accommodation trip attribute to the image (step S804). When the process of step S803 or step S804 ends, the scene attribute management unit 115 ends the overnight trip determination process.
  • FIG. 15A and FIG. 15B are flowcharts for explaining an example of registration processing of accommodation trip attributes.
  • FIG. 15 is a diagram for explaining in detail an example of the registration process of the overnight trip attribute in step S405 of FIG.
  • the scene attribute management unit 115 determines whether or not the image taken immediately before the processing target image is after the last departure time from the home town (step S901). If the image taken immediately before the processing target image is after the time when the user left hometown last (YES in step S901), the scene attribute management unit 115 sets the image taken immediately before. It is determined whether or not an overnight trip attribute is given (step S902).
  • the scene attribute management unit 115 When the overnight trip attribute is not given to the image taken immediately before (NO in step S902), the scene attribute management unit 115 generates a new overnight trip attribute (step S903).
  • the scene attribute management unit 115 gives an accommodation trip attribute to the image to be processed (step S904).
  • the scene attribute management unit 115 sets an image captured immediately before as an image to be processed (step S905).
  • the scene attribute management unit 115 shifts the image to be processed to the image captured immediately before, and repeats the processing from step S901.
  • the scene attribute management unit 115 determines whether or not the previous image and the processing target image have the same departure location. Is determined (step S906). If the starting point of the image to be processed is the same as the starting point of the processing target image (YES in step S906), the scene attribute management unit 115 sets the attribute of the same overnight trip attribute to the processing target image to be the previous image. (Step S907).
  • the scene attribute management unit 115 assigns a new accommodation trip attribute to the processing target image (step S908).
  • the scene attribute management unit 115 ends the overnight trip attribute registration process.
  • FIG. 16 is a flowchart illustrating an example of a day trip image determination process.
  • FIG. 16 is a diagram illustrating in detail an example of the day trip image determination process in step S403 of FIG.
  • the scene attribute management unit 115 confirms the location where the image was taken based on the position information acquired from the GPS (step S1001).
  • the scene attribute management unit 115 determines whether the location where the image was taken is a facility, an event venue, or a tourist spot (step S1002). If the location where the image was taken is not a facility, event venue, or sightseeing spot (NO in step S1002), scene attribute management unit 115 determines that the trip is not a day trip (step S1003).
  • step S1002 If the location where the image was taken is a facility, event venue, or sightseeing spot (YES in step S1002), the scene attribute management unit 115 determines to give a day trip attribute to the image (step S1004). When the process of step S1003 or step S1004 ends, the scene attribute management unit 115 ends the day trip determination process.
  • FIG. 17 is a flowchart illustrating an example of a day trip attribute registration process.
  • FIG. 17 is a diagram for explaining in detail an example of the day trip attribute registration process in step S406 of FIG.
  • the scene attribute management unit 115 registers the name of the facility where the image was taken in the image data management DB 132 based on the position information acquired from the GPS (step S1101).
  • the scene attribute management unit 115 determines whether or not the previous image and the latest image are images in the same facility (step S1102). If the image captured immediately before and the latest image are images in the same facility (YES in step S1102), the scene attribute management unit 115 determines that the image captured immediately before the latest image The same day trip attribute is assigned (step S1103).
  • step S1102 If the previous image and the latest image are not in the same facility (NO in step S1102), the scene attribute management unit 115 assigns a new day trip attribute to the latest image (step S1102). S1104). When the process of step S1103 or step S1104 ends, the scene attribute management unit 115 ends the day trip attribute registration process.
  • FIG. 18 is a flowchart for explaining an example of processing of the control unit during image browsing.
  • the display unit 121 displays an image by an operation of displaying the image input to the input unit 122 (step S1201).
  • the authentication unit 117 authenticates the viewer's face of the mobile terminal 100 using the camera (step S1202).
  • the face authentication unit 117 determines whether a person other than the owner (other than a user designated in advance) is captured (step S1203). If no other than the owner is shown (NO in step S1203), the image data access control unit 118 does not restrict access to the image to be displayed (step S1204).
  • the image data access control unit 118 determines whether or not the viewing mode is the scene mode (step S1205). When the viewing mode is the scene mode (YES in step S1205), the image data access control unit 118 restricts images to be displayed based on the scene attribute of the image (step S1206). When the viewing mode is the object mode (NO in step S1205), the image data access control unit 118 restricts images to be displayed based on the object attribute of the image (step S1207).
  • the control unit 110 is not desired by the owner in cases where the owner temporarily passes the portable terminal 100 storing various image data to the acquaintance or browses the portable terminal 100 together to show the image data to an acquaintance. Control not to display image data.
  • the authentication unit 117 captures a person using the mobile terminal 100 with a camera, and the person is registered in advance. It is authenticated whether or not the user of the mobile terminal 100 being used is the user (that is, the owner).
  • the image data access control unit 118 controls the image displayed on the display unit 121.
  • the authentication unit 117 may authenticate whether or not a person other than the owner of the mobile terminal 100 exists in the person existing in the image obtained by the camera. In this case, if a person other than the owner of the mobile terminal 100 is captured, the image data access control unit 118 restricts the images displayed on the display unit 121.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioethics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephone Function (AREA)

Abstract

画像を表示する表示部を備える画像表示装置は、記憶部、認証部、制御部を備える。記憶部は、画像と、前記画像に付与された属性情報を記憶する。認証部は、前記画像が前記表示部に表示する指示が与えられた場合に、前記画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をする。制御部は、前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記表示部への前記画像の表示を制限する。

Description

画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法
 本発明は、画像データの管理方法に関する。
 近年、スマートフォンに搭載されるカメラ機能は、コンパクトデジタルカメラと同じサイズの撮影素子や、高性能な画像処理エンジンなどの搭載により、急速に高画質化している。また、画像処理や画像管理ができるアプリケーションも多数存在し、利用者の使い勝手を含めて高機能化してきている。このようなスマートフォンの高機能化に伴い、これまでデジタルカメラを利用していたシーンで、デジタルカメラの代わりにスマートフォンのカメラを利用するという人達が増えている。
 こうした中、スマートフォンやタブレット端末は、デジタルカメラと比べて液晶画面が大きいため、自分の撮影した画像を他人に見せたり、複数人で画像を閲覧したりする行為がしやすいという特徴がある。このため、メモリ内に保存された画像を人に見せるために、持ち主(以下、所有者)は自ら知人など(以下、知人)に一時的にスマートフォンを手渡したり、知人と一緒に画面を閲覧しながら画像データをスクロールしたりするという状況が存在する。
 特定の画像を特定の時間帯は、他人に見せないようにする技術が知られている(例えば、特許文献1を参照)。
 閲覧者の顔を撮影し、保存された画像内で同閲覧者(被写体)が写っている画像を検索し、被写体が移っている画像と同じ属性の画像を表示する技術が知られている(例えば、特許文献2を参照)。
 所有者が、所有者以外へアクセスを許可するアクセス許可データと、アクセスを許可しないアクセス不許可データに区別し、プライバシーを保護する技術が知られている(例えば、特許文献3を参照)。
特開2013-158058号公報 特開2015-95082号公報 特開2012-19482号公報
 スマートフォンを利用する際に、撮影した画像をメモリから削除せず、蓄積していくケースも多い。このため、様々な種類の画像がメモリ内に保存されている可能性が高い。そのため、知人へスマートフォンを手渡すケースや一緒に閲覧するケースにおいて、知人が予期せぬ操作を行うことや、自分自身が気づかずに画面をスクロールしてしまうことにより、知人へ見せたくない画像を誤って表示してしまうという問題が存在する。
 1つの側面において、本発明は、閲覧させることを望まない画像の閲覧を制限することを目的とする。
 画像を表示する表示部を備える画像表示装置は、記憶部、認証部、制御部を備える。記憶部は、画像と、前記画像に付与された属性情報を記憶する。認証部は、前記画像が前記表示部に表示する指示が与えられた場合に、前記画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をする。制御部は、前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記表示部への前記画像の表示を制限する。
 閲覧させることを望まない画像の閲覧を制限できる。
本発明の実施形態に係る携帯端末の構成の例を説明する図である。 画像保存時の制御部の処理の例を説明する図である。 画像閲覧時の制御部の処理の例を説明する図である。 活動情報DBの例を説明する図である。 各画像データに属性を付与する処理の例を説明する図である。 画像データ管理情報DBの例を説明する図である。 携帯端末のハードウェア構成の例を説明する図である。 活動情報DBの登録および更新処理の例を説明するフローチャートである。 画像保存時の属性登録にかかる処理の例を説明するフローチャートである。 対象物属性管理部の処理の例を説明するフローチャートである。 シーン属性管理部の処理の例を説明する。 対象物属性管理部およびシーン属性管理部におけるメモ画像判定処理の例を説明するフローチャートである。 食事画像判定処理にかかる処理の例を説明するフローチャートである。 人物画像判定処理にかかる処理の例を説明するフローチャートである。 宿泊旅行判定処理の例を説明するフローチャートである。 宿泊旅行属性の登録処理の例を説明するフローチャートである。 宿泊旅行属性の登録処理の例を説明するフローチャートである。 日帰り旅行画像の判定処理の例を説明するフローチャートである。 日帰り旅行の属性の登録処理の例を説明するフローチャートである。 画像閲覧時の制御部の処理の例を説明するフローチャートである。
 以下、図面を参照しながら、実施形態を詳細に説明する。
 図1は、本発明の実施形態に係る携帯端末の構成の例を説明する図である。携帯端末100は、制御部110、タッチパネル120、記憶部130を備える。携帯端末100は、例えば、画像表示装置である。
 タッチパネル120は表示部121と入力部122を備える。表示部121は、Liquid Crystal Display(LCD)であり、表示オブジェクト(文字やアイコン等の画像)や画像データ等を表示する。入力部122は、ユーザによるタッチを検出し、タッチしている時間、及びタッチしている位置の座標値を検知する。入力部122は、検知した各情報を制御部110に出力する。なお、入力部122は、タッチパネルで用いられる抵抗膜方式、光学式、静電容量結合式などの何れかの方法で実現するものであってよい。
 記憶部130は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、Electrically Erasable Programmable Read-Only Memory(EEPROM)、不揮発性RAM、フラッシュメモリ、Hard Disk Drive(HDD)などである。記憶部130は、制御部110で処理されるアプリケーションプログラムや画像データ131、所有者(以下、ユーザとも称す)の顔認証に用いられる所有者情報等を記憶する。又、記憶部130は、画像データ管理情報Data Base(DB)132や活動情報DB133を記憶する。画像データ管理情報DB132は、携帯端末100に保存された各画像データの管理情報を記録したデータベースである。活動情報DB133は、携帯端末100の所有者の行動を記録したデータベースである。
 更に、携帯端末100は、カメラを備える。カメラは、携帯端末100の表面および裏面に設けられるカメラであり、撮影機能を備える。一方のカメラは、ユーザの顔の撮影に用いられる。ユーザの顔を撮影した画像は、制御部110により顔認証や虹彩認証などに使用される。もう一方のカメラは、ユーザが撮影の対象物を撮影する際に使用される。
 制御部110は、端末動作監視部111、活動情報記録部112、画像データ管理情報制御部113、対象物属性管理部114、シーン属性管理部115、画像解析部116、認証部117、画像データアクセス制御部118を備える。
 制御部110は、携帯端末100の所有者の活動を表す活動情報に基づいて、カメラを用いて撮影した画像に対応する属性を自動的に付与することができる。具体的には、端末動作監視部111は、携帯端末100が使用中であるか否かを監視する。携帯端末100が使用中である場合、活動情報記録部112は、例えば、Global Position System(GPS)から現在位置の情報を取得し、携帯端末100の所有者の活動情報を記憶部130内の活動情報DB133に記録する。カメラで何らかの画像が撮影されると、画像解析部116は、撮影された画像を解析する。画像解析部116の解析結果に基づいて、対象物属性管理部114は、人物や食事などの画像に写っている対象物を表す対象物属性を画像に対応づけて管理する。画像解析部116の解析結果に基づいて、シーン属性管理部115は、旅行などの画像がどのようなシーンで撮影されたかを表すシーン属性を画像に対応づけて管理する。画像データ管理情報制御部113は、対象物属性管理部114やシーン属性管理部115などの管理情報に基づいて、記憶部130に記憶されている画像データ管理情報DB132に記録されている画像データの管理情報を制御する。
 制御部110は、様々な画像データが保存されている携帯端末100を所有者が知人へ画像データを見せるために、一時的に手渡したり、一緒に閲覧したりするケースにおいて、所有者が望まない画像データを表示しないようにする制御をする。具体的には、所有者又は知人などの操作により表示部121に新規画像が表示される場合、認証部117は、カメラで携帯端末100を使用している人物を撮影し、その人物が予め登録されている携帯端末100の利用者本人(すなわち、所有者)であるか否かを認証する。カメラで撮影された人物が携帯端末100の所有者でない場合、画像データアクセス制御部118は、表示部121に表示させる画像を制御する。あるいは、認証部117は、カメラにより得られた画像中に存在する人物の中に、携帯端末100の所有者以外の人物が存在するか否かを認証してもよい。この場合、携帯端末100の所有者以外の人物が写っていれば、画像データアクセス制御部118は、表示部121に表示される画像を制限する。制御部110は、カメラにより得られた画像中に存在する人物の全員が予め登録(許可)されているユーザである場合に、表示部121に画像を表示する制御をする。
 図2Aは、画像保存時の制御部の処理の例を説明する図である。また、図2Bは、画像閲覧時の制御部の処理の例を説明する図である。カメラを用いて新規に画像が撮影され、画像を記憶部130に記憶する際(画像保存時:図2A)に、制御部110は、画像に対象物属性とシーン属性を付与する。対象物属性とシーン属性は、画像解析結果に基づいて対象物属性管理部114とシーン属性管理部115により付与される。図2Aにおいては、対象物属性管理部114は、新たに撮影された画像に対して、対象物属性として「人物001」を付与する。シーン属性管理部115は、その画像に対して、シーン属性として「日帰り旅行001」を付与する。なお、対象物属性およびシーン属性を決定する方法については、後で詳しく説明する。ここで、画像の保存は、写真を撮影した場合、ブラウザより写真をダウンロードした場合、携帯端末100において画面キャプチャをした場合などのケースを含む。
 続いて、携帯端末100が所有者の知人に渡されたものとする。ここで、携帯端末100には、図2Aに示す画像に加えて、多数の画像が保存されているものとする。なお、携帯端末100に保存される各画像には、対象物属性およびシーン属性が付与されている。知人に携帯端末100を渡す場合、所有者は携帯端末100に予め閲覧モードを設定する。閲覧モードは、対象物モードとシーンモードの2種類から選択される。対象物モードが選択されている場合、制御部110内の画像データアクセス制御部118は、対象物属性に基づいて、画像を表示してよいか否かを判定する。シーンモードが選択されている場合、制御部110内の画像データアクセス制御部118は、シーン属性に基づいて、画像を表示してよいか否かを判定する。ここでは、所有者によりシーンモードが選択され、携帯端末100にシーンモードが設定されていると仮定する。
 日帰り旅行001のシーン属性が付与された画像が表示されている状態で、知人が次の画像へフリック操作(新規画像を表示させるための操作)をした場合、認証部117は、カメラを用いて携帯端末100を使用しているユーザが携帯端末100の所有者本人であるか否かを認証する。所有者本人でないユーザがカメラに写っている場合、画像データアクセス制御部118は、シーン属性に基づいて、次の画像(新規画像)を表示させるか否かを判定する。ここで、表示部121に表示されている画像のシーン画像と次の画像のシーン属性とが同じである場合は、画像データアクセス制御部118は、次の画像の閲覧を許可する。すなわち、次の画像のシーン属性が「日帰り旅行001」であれば、フリック操作に応じてその画像が表示部121に表示される。一方、表示部121に表示されている画像のシーン属性と次の画像のシーン属性とが異なる場合は、画像データアクセス制御部118は、次の画像の閲覧を許可しない。例えば、次の画像のシーン属性が「宿泊旅行004」であれば、その画像は表示部121に表示されない。このように所有者本人でないユーザ(知人)がカメラに写っている場合に、画像データアクセス制御部118は、現在見せている画像と異なる属性を持つ画像が知人に表示されることを制限することができる。
<活動情報の収集>
 携帯端末100の制御部110は、画像データに対して対象物属性とシーン属性を自動的に付与する。そのために、制御部110は、携帯端末100の所有者の活動情報を収集し、活動情報DB133に記録する。
 例えば、所定時間(例えば、4時間)よりも長い期間にわたって携帯端末100の位置が変わらず、且つ、携帯端末100が操作されていない場合、活動情報記録部112は、形態端末100の所有者が「睡眠中」であると判定する。そして、「睡眠中」と判定された後、携帯端末100の位置の変化または携帯端末100に対する操作が検出されると、活動情報記録部112は、携帯端末100の所有者が活動を開始したと判定する。
 図3は、活動情報DBの例を説明する図である。活動情報記録部112は、GPSから取得する位置情報に基づいて、1日の活動開始時にその時刻と場所を収集し、活動情報DB133に記録する。活動情報記録部112は、その記録の蓄積により、所有者の活動の拠点(ホームタウン)を特定する。なお、1日の活動開始は、携帯端末100に備えられている加速度センサなどにより所有者の活動開始を検知する。
 活動情報DB133は、活動開始位置、活動開始時間(例えば、過去90日間)、合計回数、ホームタウンの項目を備える。活動開始位置は、GPSから収集した1日の活動開始時の場所の情報である。図3のモデルケースでは、例えば、自宅が川崎X丁目で、旅行で軽井沢Y丁目に2泊宿泊した後、第二の生活拠点である大阪Z丁目に移動・宿泊した後、自宅の川崎X丁目に帰宅している。そのため、活動情報DB133には、川崎X丁目、軽井沢Y丁目、大阪Z丁目などが活動開始位置として登録されている。図3の活動開始時間(過去90日間)は、1日の活動開始時の時間である。図3の活動情報DB133では、9月20日の7時30分に川崎X丁目で活動が開始されている。同様に、図3の活動情報DB133では、12月16日の7時40分に川崎X丁目、12月17日の8時20分、12月18日の8時に軽井沢Y丁目、12月19日の6時30分に大阪Z丁目、12月20日の7時35分にまた川崎X丁目で所有者の活動が開始されている。
 合計回数は、各活動開始位置で所有者の活動が開始された回数である。図3の活動情報DB133では、過去90日間の夫々の活動開始位置の合計回数は、川崎X丁目が58回、軽井沢Y丁目が2回、大阪Z丁目が30回となっている。そのため、図3の活動情報DB133では、川崎X丁目、大阪Z丁目がホームタウンとして登録される。
 このように、活動情報記録部112は、携帯端末100の所有者の活動情報により、所有者のホームタウンを決定する。ホームタウンが決定することで、例えば、携帯端末100がホームタウン以外の場所に移動した場合に、携帯端末100は、現在旅行中であるなどの判定をすることができるようになる。
 図4は、各画像データに属性を付与する処理の例を説明する図である。図4は、対象物属性管理部114とシーン属性管理部115が各画像に対して対象物属性とシーン属性を付与する例を説明している。
 図4と後述する図5のケースにおいて、所有者は、12月16日の7時40分にホームタウン(川崎)で起床し、その後軽井沢に移動する。所有者は、軽井沢への移動中に同日の16時に人物画像401を撮影し、20時02分に食事画像402を撮影する。画像が撮影された時点で、画像解析部116は、画像解析を行う。対象物属性管理部114は、画像に人物が写っていた際に付与する人物属性を表す「人01」を人物画像401に付与し、画像に食べ物が写っていた際に付与する食事属性を表す「食01」を食事画像402に付与する。なお、属性情報に含まれる数字は、同属性の異なるものや人などを区別するための識別情報である。これらの画像と画像に対応づけられた属性情報は、画像データ管理情報DB132に記憶される。人物画像401と食事画像402が撮影された時点において、シーン属性管理部115は、人物画像401と食事画像402に対して一旦、「日帰り」、又は、「その他」の属性を付与する。既にホームタウン(川崎)から軽井沢へ移動しているため、シーン属性管理部115は、現在旅行中であると判定するため、画像に対して「日帰り」と属性を付与する。しかし、この段階において、シーン属性管理部115は、旅行が複数日にわたるものであるのか、日帰り旅行であるのかを判定できない。
 所有者は、軽井沢に宿泊した後、12月17日の8時40分に食事画像403を撮影する。すると、画像が撮影された時点で、画像解析部116は、画像解析を行う。対象物属性管理部114は、食事画像403に「食02」の対象物属性を付与する。ここで、シーン属性管理部115は、携帯端末100がホームタウンに戻っていないため、旅行が複数日にわたる宿泊旅行であると判定する。シーン属性管理部115は、食事画像403に宿泊旅行の属性を表す「宿01」を付与する。更に、シーン属性管理部115は、前日に撮影した人物画像401と食事画像402のシーン属性を「宿01」に更新する。
 その後、所有者は、12月17日の8時45分に軽井沢にて食事画像404、10時20分にメモ画像405、12時15分に食事画像406を撮影する。すると、画像が撮影された時点で、画像解析部116は、画像解析を行う。対象物属性管理部114は、食事画像404に「食02」の対象物属性を、食事画像406に「食03」の対象物属性を付与する。対象物属性管理部114は、例えば、食事や人物でないメモが撮影されているメモ画像405に対してメモ属性を表す「メ01」を付与する。ここで、メモ画像とは、ブラウザからダウンロードした画像データや、画面キャプチャした画像、メールやSocial Networking Service(SNS)に添付された画像などを指し、メモを目的としたカメラで撮影された画像は含まないものとする。シーン属性管理部115は、現在の旅行が複数日にわたる宿泊旅行であると判定している状態であるため、食事画像404と食事画像406に「宿01」の属性を付与する。シーン属性管理部115は、日帰り旅行や宿泊旅行以外に付与する「その他」を表す属性である「他01」をメモ画像405に対して付与する。
 所有者は、12月18日に軽井沢で人物画像407を撮影する。その後、所有者は、大阪(ホームタウン)へ移動する。対象物属性管理部114は、人物画像407に「人02」の属性を付与する。シーン属性管理部115は、人物画像407に「宿01」の属性を付与する。
 12月19日に、所有者は、大阪(ホームタウン)から川崎(ホームタウン)へ移動する。その際に、所有者は、人物画像408と人物画像409を撮影する。対象物属性管理部114は、人物画像408と人物画像409に「人03」の属性を付与する。シーン属性管理部115は、人物画像408と人物画像409に「他02」の属性を付与する。ここでは、ホームタウン間の移動であるため、日帰り旅行又は宿泊旅行の属性が付与されず、その他の属性が付与される。
 次に、所有者は、12月21日に展示会が開催される幕張イベントホール内で、人物画像410、物画像411を撮影する。更に、所有者は、帰りに海浜幕張駅で、食事画像412を撮影する。すると、画像が撮影された時点で、画像解析部116は、画像解析を行う。対象物属性管理部114は、人物画像410に「人04」の属性を付与する。対象物属性管理部114は、物が撮影されている物画像411に「物01」の属性を付与する。対象物属性管理部114は、食事画像412に「食04」の属性を付与する。シーン属性管理部115は、人物画像410、物画像411に対して日帰り属性を表す「日01」を付与する。シーン属性管理部115は、食事画像412に対して日帰り属性を表す「日02」を付与する。
 所有者は、12月22日に、景色画像413と食事画像414を撮影する。すると、画像が撮影された時点で、画像解析部116は、画像解析を行う。対象物属性管理部114は、景色画像413に対して「他02」の属性を付与し、食事414に「食05」の属性を付与する。シーン属性管理部115は、景色画像413と食事画像414に対して「他03」の属性を付与する。
 このように、携帯端末100は、各画像を画像解析し、対象物属性とシーン属性を付与する。なお、対象物属性やシーン属性の種類は、一例であり、限定するものではない。
 図5は、画像データ管理情報DBの例を説明する図である。画像データ管理情報DB132は、Identifier(ID)、出発地、撮影時刻、位置情報、施設名、対象物属性、シーン属性の項目を備える。IDは、図4の人物画像401~食事画像414の各画像を識別する識別情報である。出発地は、活動情報記録部112の1日の活動開始を検出した場所である。撮影時刻は、人物画像401~食事画像414の各画像が撮影された時刻である。位置情報は、人物画像401~食事画像414の各画像が撮影された位置の情報であり、GPSにより取得される。施設名は、位置情報に基づいて、画像が撮影された位置が、何らかの施設であるか否かを示す情報である。対象物属性は、各画像に付与される対象物属性である。シーン属性は、各画像に付与されるシーン属性である。
 図4、図5の例における携帯端末100は、画像解析の結果に基づいて、画像に写っているのが人物や食事などであると判定し、対象物属性を付与する。
 図4、図5の例における携帯端末100は、12月16日~18日の複数日の間ホームタウンから離れている場所で画像の撮影がなされているため、宿泊旅行をしていると判定し、宿泊旅行の属性を画像に付与する。携帯端末100は、12月21日のように、ホームタウンから離れた場所で撮影がされた場合に、日帰り旅行だと判定し、日帰り属性を画像に付与する。このように、携帯端末100は、位置情報に基づいてシーン属性を自動的に決定する。
 このように、自動的に決定される対象物属性とシーン属性に基づいて、携帯端末100は、所有者本人でないユーザ(知人)がカメラに写っている場合に、画像データアクセス制御部118は、現在見せている画像と異なる属性を持つ画像が知人に表示されることを制限することができる。
 図6は、携帯端末のハードウェア構成の例を説明する図である。携帯端末100は、携帯端末100は、通信モジュール11、カメラ12、メモリ13、プロセッサ14、ドライブ装置15、記憶媒体16、マイク17、スピーカ18、入出力装置19、センサ20、電力装置21、バス22を備える。
 プロセッサ14は、Central Processing Unitなどの任意の処理回路である。プロセッサ14は、携帯端末100における制御部110として動作する。なお、プロセッサ14は、例えば、記憶媒体16に記憶されたプログラムを実行することができる。メモリ13は、記憶部130として動作し、画像データ131、画像データ管理情報DB132、活動情報DB133を記憶する。さらに、メモリ13は、プロセッサ14の動作により得られたデータや、プロセッサ14の処理に用いられるデータも、適宜、記憶する。
 入出力装置19は、例えば、ボタン、キーボード、マウス、タッチパネル等の入力装置として実現され、更に、ディスプレイなどの出力装置として実現される。バス22は、通信モジュール11、カメラ12、メモリ13、プロセッサ14、ドライブ装置15、記憶媒体16、マイク17、スピーカ18、入出力装置19、センサ20の間を相互にデータの受け渡しが行えるように接続する。ドライブ装置15は、記憶媒体16を動作させるために用いられ、記憶媒体16に格納されているプログラムやデータを、適宜、プロセッサ14へ提供する。
 通信モジュール11は、他端末や他装置との通信を制御するモジュールである。通信モジュール11で送受信したデータは、適宜、プロセッサ14で処理される。カメラ12は、携帯端末100の表面と裏面に設けられ、画像を撮影する機能を備える。マイク17は、携帯端末を使用するユーザが音声を入力する機器である。スピーカ18は、携帯端末が受信した音声を、ユーザが聞こえるように音として出力する機器である。センサ20は、加速度センサや照度センサ、近接センサなどのセンサ群である。電力装置21は、携帯端末100を動作させるための電力を供給する。
 図7は、活動情報DBの登録および更新処理の例を説明するフローチャートである。端末動作監視部111は、センサ20の加速度センサなどにより、端末の動作(所有者が端末を持ち歩いた、又は、操作をしたか否か)を監視する(ステップS101)。端末動作監視部111は、端末の動作が所定の時間(例えば、4時間)を超えて行われていないかどうかで、所有者が睡眠中であるか否かを判定する(ステップS102)。所有者が睡眠中でない場合(ステップS102でNO)、端末動作監視部111は、ステップS101から処理を繰り返す。
 所有者が睡眠中である場合(ステップS102でYES)、端末動作監視部111は、センサ20の加速度センサなどに基づいて、所有者が睡眠から覚めて1日の活動を開始したかを監視する(ステップS103)。端末動作監視部111は、センサ20の加速度センサなどに基づいて、携帯端末100が移動したか、又は操作されたか否かを判定し、所有者が活動開始したか否かを判定する(ステップS104)。所有者が活動開始をしていない場合(ステップS104でNO)、端末動作監視部111は、処理をステップS103から繰り返す。
 所有者が活動を開始している場合(ステップS104でYES)、活動情報記録部112は、位置情報をGPSより取得し、活動情報DB133に登録する(ステップS105)。活動情報記録部112は、時刻情報を取得し、活動情報DB133に登録する(ステップS106)。活動情報記録部112は、登録した位置情報と時刻情報に基づいて、活動情報DB133の合計回数を更新する(ステップS107)。活動情報記録部112は、登録した位置情報と時刻情報に基づいて、活動情報DB133のホームタウンを更新する(ステップS108)。
 このように、活動情報記録部112は、携帯端末100の所有者の活動情報により、所有者のホームタウンを決定する。ホームタウンが決定することで、例えば、携帯端末100がホームタウン以外の場所に移動した場合に、携帯端末100は、現在旅行中であるなどの判定をすることができるようになる。
 図8は、画像保存時の属性登録にかかる処理の例を説明するフローチャートである。所有者(ユーザ)の操作により、画像データ管理情報制御部113は、画像データを記憶部130に記憶する(ステップS201)。画像データ管理情報制御部113は、GPSから現在位置を取得し、保存した画像に対応づけて画像データ管理情報DB132に登録する(ステップS202)。画像データ管理情報制御部113は、現在時刻を取得し、保存した画像に対応づけて画像データ管理情報DB132に登録する(ステップS203)。対象物属性管理部114は、対象物属性を保存した画像に対応づけて画像データ管理情報DB132に登録する(ステップS204)。シーン属性管理部115は、シーン属性を保存した画像に対応づけて画像データ管理情報DB132に登録する(ステップS205)。
 図9は、対象物属性管理部の処理の例を説明するフローチャートである。図9のフローチャートは、図8のステップS204における対象物属性管理部114の処理の例を説明する。対象物属性管理部114は、画像がメモ画像か否かを判定する(ステップS301)。画像がメモ画像でない場合(ステップS301でNO)、対象物属性管理部114は、画像解析をし、画像が食事画像か否かを判定する(ステップS302)。画像が食事画像でない場合(ステップS302でNO)、対象物属性管理部114は、画像解析をし、画像が人物画像か否かを判定する(ステップS303)。画像が人物画像でない場合(ステップS304でNO)、対象物属性管理部114は、画像の対象物属性を「その他」と決定する(ステップS304)。
 対象物属性管理部114は、各画像のステップS301~ステップS304の属性判定結果に基づいて、画像に対応する対象物属性を画像データ管理情報DB132に登録する(ステップS305)。ここで、画像はメモ画像であると判定した場合(ステップS301でYES)、対象物属性管理部114は、「メモ」を表す対象物属性を画像に対応付けて保存する。画像は食事画像であると判定した場合(ステップS302でYES)、対象物属性管理部114は、「食事」を表す対象物属性を画像に対応付けて保存する。画像は人物画像であると判定した場合(ステップS303でYES)、対象物属性管理部114は、「人物」を表す対象物属性を画像に対応付けて保存する。
 図10は、シーン属性管理部の処理の例を説明する。図10のフローチャートは、図8のステップS205におけるシーン属性管理部115の処理の例を説明する。シーン属性管理部115は、画像がメモ画像か否かを判定する(ステップS401)。画像がメモ画像でない場合(ステップS401でNO)、シーン属性管理部115は、画像が宿泊旅行中の画像か否かを判定する(ステップS402)。画像が宿泊旅行の画像でない場合(ステップS402でNO)、シーン属性管理部115は、画像が日帰りの画像か否かを判定する(ステップS403)。画像が日帰りの画像でない場合(ステップS404でNO)、又は、画像がメモ画像である場合(ステップS401でYES)、シーン属性管理部115は、画像のシーン属性を「その他」として保存する(ステップS404)。
 画像が宿泊旅行中の画像である場合(ステップS402でYES)、シーン属性管理部115は、宿泊属性の登録処理を実行する(ステップS405)。画像が日帰り旅行の画像である場合(ステップS403でYES)、シーン属性管理部115は、日帰り属性の登録処理を実行する(ステップS406)。ステップS404、ステップS405、又はステップS406の処理が終了すると、シーン属性管理部115は、画像へのシーン属性付与(登録)の処理を終了する。
 図11は、対象物属性管理部およびシーン属性管理部におけるメモ画像判定処理の例を説明するフローチャートである。図11は、対象物属性管理部114およびシーン属性管理部115におけるステップS301とステップS401の処理を詳細に説明する図である。
 対象物属性管理部114(ステップS301の処理の場合)は、画像がカメラで撮影された画像であるか否かを判定する(ステップS501)。画像がカメラで撮影された画像である場合(ステップS501でYES)、対象物属性管理部114は、画像がメモ画像でないと判定する(ステップS502)。画像がカメラで撮影された画像でない場合(ステップS501でNO)、対象物属性管理部114は、画像を画像にメモ属性を付与することを決定する(ステップS503)。なお、ステップS401の処理の場合は、ステップS501~ステップS503の処理を、シーン属性管理部115が実行する。
 図12は、食事画像判定処理にかかる処理の例を説明するフローチャートである。図12は、図9のステップS302の食事画像判定処理の例を詳しく説明する図である。画像解析部116は、画像解析をする(ステップS601)。対象物属性管理部114は、画像に食べ物が写っているか否かを判定する(ステップS602)。画像に食べ物が写っていない場合(ステップS602でNO)、対象物属性管理部114は、画像が食事画像でないと決定する(ステップS603)。ステップS603の処理が終了すると、対象物属性管理部114は、画像が食事画像であるか否かの判定処理を終了する。
 画像に食べ物が写っている場合(ステップS602でYES)、対象物属性管理部114は、1つ前に撮影した画像が食事画像であるか否かを判定する(ステップS604)。1つ前に撮影した画像が食事画像である場合(ステップS604でYES)、対象物属性管理部114は、1つ前に撮影した画像と最新の画像の撮影に日時と場所とが関連しているか否かを判定する(ステップS605)。1つ前に撮影した画像と最新の画像の撮影に日時と場所とが関連している場合(ステップS605でYES)、対象物属性管理部114は、1つ前に撮影した画像の対象物属性と同一の属性(食事属性)を画像に付与すると決定する(ステップS606)。1つ前に撮影した画像が食事画像でない場合(ステップS604でNO)、1つ前に撮影した画像と最新の画像が関連した画像でない場合(ステップS605でNO)、対象物属性管理部114は、新しい番号を割り当てた食事属性を画像に付与すると決定する(ステップS607)。ステップS606及びステップS607において、画像に食事属性を付与することが決定すると、食事画像判定処理は終了する。
 図13は、人物画像判定処理にかかる処理の例を説明するフローチャートである。図13は、図9のステップS303の人物画像判定処理の例を詳しく説明する図である。画像解析部116は、画像解析をする(ステップS701)。対象物属性管理部114は、画像に人物が写っているか否かを判定する(ステップS702)。画像に人物が写っていない場合(ステップS702でNO)、対象物属性管理部114は、画像が人物画像でないと決定する(ステップS703)。ステップS703の処理が終了すると、対象物属性管理部114は、画像が人物画像であるか否かの判定処理を終了する。
 画像に人物が写っている場合(ステップS702でYES)、対象物属性管理部114は、1つ前に撮影した画像が人物画像であるか否かを判定する(ステップS704)。1つ前に撮影した画像が人物画像である場合(ステップS704でYES)、対象物属性管理部114は、1つ前に撮影した画像と最新の画像で撮影された人物の特徴が一致しているか否かを判定する(ステップS705)。1つ前に撮影した画像と最新の画像で撮影された人物の特徴が一致している場合(ステップS705でYES)、対象物属性管理部114は、1つ前に撮影した画像の対象物属性と同一の属性(人物属性)を画像に付与すると決定する(ステップS706)。1つ前に撮影した画像が人物画像でない場合(ステップS704でNO)、1つ前に撮影した画像と最新の画像で撮影された人物の特徴が一致しない場合(ステップS705でNO)、対象物属性管理部114は、新しい番号を割り当てた人物属性を画像に付与すると決定する(ステップS707)。ステップS706及びステップS707において、画像に人物属性を付与することが決定すると、人物画像判定処理は終了する。
 図14は、宿泊旅行判定処理の例を説明するフローチャートである。図14は、図10のステップS402の宿泊旅行判定処理の例を詳しく説明する図である。シーン属性管理部115は、画像の活動開始位置を確認する(ステップS801)。シーン属性管理部115は、活動開始位置がホームタウン以外であるか否かを判定する(ステップS802)。活動開始位置がホームタウン以外である場合(ステップS802でNO)、シーン属性管理部115は、宿泊旅行ではないと決定する(ステップS803)。活動開始位置がホームタウン以外である場合(ステップS802でYES)、シーン属性管理部115は、画像に宿泊旅行属性を付与することを決定する(ステップS804)。ステップS803又はステップS804の処理が終了すると、シーン属性管理部115は、宿泊旅行判定処理を終了する。
 図15A及び図15Bは、宿泊旅行属性の登録処理の例を説明するフローチャートである。図15は、図10のステップS405の宿泊旅行属性の登録処理の例を詳しく説明する図である。シーン属性管理部115は、処理対象の画像の1つ前に撮影した画像が、最後にホームタウンを出発した時間より後のものであるか否かを判定する(ステップS901)。処理対象の画像の1つ前に撮影した画像が最後にホームタウンを出発した時間より後のものである場合(ステップS901でYES)、シーン属性管理部115は、1つ前に撮影した画像に宿泊旅行の属性が付与されているか否かを判定する(ステップS902)。1つ前に撮影した画像に宿泊旅行の属性が付与されていない場合(ステップS902でNO)、シーン属性管理部115は、新しい宿泊旅行属性を生成する(ステップS903)。シーン属性管理部115は、処理対象の画像に宿泊旅行属性を付与する(ステップS904)。シーン属性管理部115は、処理対象の画像を、1つ前に撮影された画像を設定する(ステップS905)。シーン属性管理部115は、処理対象の画像を1つ前に撮影された画像にシフトし、ステップS901から処理を繰り返す。
 1つ前に撮影した画像に宿泊旅行の属性が付与されている場合(ステップS902でYES)、シーン属性管理部115は、1つ前に撮影した画像と処理対象画像の出発地が同じか否かを判定する(ステップS906)。1つ前に撮影した画像と処理対象画像の出発地が同じ場合(ステップS906でYES)、シーン属性管理部115は、処理対象画像に1つ前に撮影した画像と同じ宿泊旅行属性の属性を付与する(ステップS907)。処理対象の画像の1つ前に撮影した画像が最後にホームタウンを出発した時間より後でない場合(ステップS901でNO)、又は、1つ前に撮影した画像と処理対象画像の出発地が同じでない場合(ステップS906でNO)、シーン属性管理部115は、新規の宿泊旅行属性を処理対象画像に付与する(ステップS908)。ステップS907又はステップS908で処理対象画像に宿泊旅行属性を付与すると、シーン属性管理部115は、宿泊旅行属性の登録処理を終了する。
 図16は、日帰り旅行画像の判定処理の例を説明するフローチャートである。図16は、図10のステップS403の日帰り旅行画像の判定処理の例を詳しく説明する図である。シーン属性管理部115は、GPSから取得した位置情報に基づいて、画像の撮影された場所を確認する(ステップS1001)。シーン属性管理部115は、画像の撮影された場所が施設、イベント会場、観光スポットのいずれかであるか否かを判定する(ステップS1002)。画像の撮影された場所が施設、イベント会場、観光スポットでない場合(ステップS1002でNO)、シーン属性管理部115は、日帰り旅行ではないと決定する(ステップS1003)。画像の撮影された場所が施設、イベント会場、観光スポットである場合(ステップS1002でYES)、シーン属性管理部115は、画像に日帰り旅行属性を付与することを決定する(ステップS1004)。ステップS1003又はステップS1004の処理が終了すると、シーン属性管理部115は、日帰り旅行判定処理を終了する。
 図17は、日帰り旅行の属性の登録処理の例を説明するフローチャートである。図17は、図10のステップS406の日帰り旅行属性の登録処理の例を詳しく説明する図である。シーン属性管理部115は、GPSから取得した位置情報に基づいて、画像の撮影された施設名を画像データ管理DB132に登録する(ステップS1101)。シーン属性管理部115は、1つ前に撮影された画像と最新の画像とが同一の施設内の画像であるか否かを判定する(ステップS1102)。1つ前に撮影された画像と最新の画像とが同一の施設内の画像である場合(ステップS1102でYES)、シーン属性管理部115は、最新の画像に1つ前に撮影された画像と同一の日帰り旅行属性を付与する(ステップS1103)。1つ前に撮影された画像と最新の画像とが同一の施設内の画像でない場合(ステップS1102でNO)、シーン属性管理部115は、新規の日帰り旅行属性を最新の画像に付与する(ステップS1104)。ステップS1103又はステップS1104の処理が終了すると、シーン属性管理部115は、日帰り旅行属性の登録処理を終了する。
 図18は、画像閲覧時の制御部の処理の例を説明するフローチャートである。表示部121は、入力部122に入力される画像を表示させる操作により、画像を表示する(ステップS1201)。認証部117は、カメラにより携帯端末100の閲覧者の顔を認証する(ステップS1202)。顔認証部117は、所有者以外(予め指定されたユーザ以外)が写っているか否かを判定する(ステップS1203)。所有者以外が写っていない場合(ステップS1203でNO)、画像データアクセス制御部118は、表示する画像にアクセス制限をかけない(ステップS1204)。
 所有者以外が写っている場合(ステップS1203でYES)、画像データアクセス制御部118は、閲覧モードがシーンモードであるか否かを判定する(ステップS1205)。閲覧モードがシーンモードである場合(ステップS1205でYES)、画像データアクセス制御部118は、画像のシーン属性に基づいて表示する画像を制限する(ステップS1206)。閲覧モードが対象物モードである場合(ステップS1205でNO)、画像データアクセス制御部118は、画像の対象物属性に基づいて表示する画像を制限する(ステップS1207)。
 制御部110は、様々な画像データが保存されている携帯端末100を所有者が知人へ画像データを見せるために、一時的に手渡したり、一緒に閲覧したりするケースにおいて、所有者が望まない画像データを表示しないようにする制御をする。具体的には、所有者又は知人などの操作により表示部121に新規画像が表示される場合、認証部117は、カメラで携帯端末100を使用している人物を撮影し、その人物が予め登録されている携帯端末100の利用者本人(すなわち、所有者)であるか否かを認証する。カメラで撮影された人物が携帯端末100の所有者でない場合、画像データアクセス制御部118は、表示部121に表示させる画像を制御する。あるいは、認証部117は、カメラにより得られた画像中に存在する人物の中に、携帯端末100の所有者以外の人物が存在するか否かを認証してもよい。この場合、携帯端末100の所有者以外の人物が写っていれば、画像データアクセス制御部118は、表示部121に表示される画像を制限する。
100 携帯端末
110 制御部
111 端末動作監視部
112 活動情報記録部
113 画像データ管理情報制御部
114 対象物属性管理部
115 シーン属性管理部
116 画像解析部
117 認証部
118 画像データアクセス制御部
120 タッチパネル
121 表示部
122 入力部
130 記憶部
131 画像データ
132 画像データ管理情報DB
133 活動情報DB

Claims (9)

  1.  画像を表示する表示部を備える画像表示装置であって、
     画像と、前記画像に付与された属性情報を記憶する記憶部と、
     前記画像を前記表示部に表示する指示が与えられた場合に、前記画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をする認証部と、
     前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記表示部への前記画像の表示を制限する制御部と、
     を備えることを特徴とする画像表示装置。
  2.  前記画像表示装置の閲覧者を撮影するカメラを、更に備え、
     前記認証部は、
     前記画像を前記表示部に表示する指示が与えられた場合に、前記画像を解析することにより、前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているか否かを認証する
     ことを特徴とする請求項1に記載の画像表示装置。
  3.  前記属性情報は、
     前記画像を解析した結果で得られる対象物属性を含む
     ことを特徴とする請求項1に記載の画像表示装置。
  4.  前記属性情報は、
     前記画像表示装置の位置情報に基づいて得られるシーン属性を含む
     ことを特徴とする請求項1に記載の画像表示装置。
  5.  前記制御部は、
     前記表示部に第1の画像が表示されている状態において、第2の画像を前記表示部に表示させる指示が与えられたときに、前記第1の画像の属性と前記第2の画像の属性とが異なっている場合に、前記表示部への前記第2の画像の表示を制限する
     ことを特徴とする請求項1に記載の画像表示装置。
  6.  前記制御部は、
     前記画像表示装置の閲覧者の全員が予め指定されたユーザである場合に、前記表示部へ前記画像を表示する制御をする、
     ことを特徴とする請求項1に記載の画像表示装置。
  7.  表示する画像を制御する画像表示制御装置であって、
     画像と、前記画像に付与された属性情報を記憶する記憶部と、
     前記画像を表示する表示部に画像を表示する指示が与えられた場合に、前記画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をする認証部と、
     前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記表示部への前記画像の表示を制限する制御部と、
     を備えることを特徴とする画像表示制御装置。
  8.  画面に表示させる画像を制御する画像表示制御プログラムあって、
     画像と、前記画像に付与された属性情報を記憶し、
     前記画像を前記画面に表示する指示が与えられた場合に、画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をし、
     前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記画面への前記画像の表示を制限する、処理を画像表示装置に実行させる
     ことを特徴とする画像表示制御プログラム。
  9.  画面に表示させる画像を制御する画像表示制御方法あって、
     画像と、前記画像に付与された属性情報を記憶し、
     前記画像を前記画面に表示する指示が与えられた場合に、画像表示装置の閲覧者の中に予め指定されたユーザが含まれているか否かの認証をし、
     前記画像表示装置の閲覧者の中に予め指定されたユーザ以外のユーザが含まれているときに、前記属性情報に基づいて、前記画面への前記画像の表示を制限する、
     ことを特徴とする画像表示制御方法。
PCT/JP2016/074256 2016-08-19 2016-08-19 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法 WO2018034002A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018534254A JP6762366B2 (ja) 2016-08-19 2016-08-19 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法
PCT/JP2016/074256 WO2018034002A1 (ja) 2016-08-19 2016-08-19 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法
US16/277,880 US20190180042A1 (en) 2016-08-19 2019-02-15 Image display device, image display control device, and image display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/074256 WO2018034002A1 (ja) 2016-08-19 2016-08-19 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/277,880 Continuation US20190180042A1 (en) 2016-08-19 2019-02-15 Image display device, image display control device, and image display control method

Publications (1)

Publication Number Publication Date
WO2018034002A1 true WO2018034002A1 (ja) 2018-02-22

Family

ID=61196533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074256 WO2018034002A1 (ja) 2016-08-19 2016-08-19 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法

Country Status (3)

Country Link
US (1) US20190180042A1 (ja)
JP (1) JP6762366B2 (ja)
WO (1) WO2018034002A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3136082A1 (fr) * 2022-05-30 2023-12-01 Orange Procédé de gestion de la restitution d’au moins un contenu par un terminal, terminal et programme d’ordinateur correspondants.

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015663A (ja) * 2010-06-30 2012-01-19 Casio Comput Co Ltd 画像表示装置、画像再生方法並びにプログラム
JP2014220563A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 画像閲覧装置、画像閲覧装置の制御方法およびプログラム
JP2015095082A (ja) * 2013-11-12 2015-05-18 キヤノン株式会社 画像表示装置、その制御方法、および制御プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117066B2 (en) * 2013-01-14 2015-08-25 Sap Portals Israel Ltd Camera-based portal content security
US9830505B2 (en) * 2014-11-12 2017-11-28 International Business Machines Corporation Identifying and obscuring faces of specific individuals in an image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015663A (ja) * 2010-06-30 2012-01-19 Casio Comput Co Ltd 画像表示装置、画像再生方法並びにプログラム
JP2014220563A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 画像閲覧装置、画像閲覧装置の制御方法およびプログラム
JP2015095082A (ja) * 2013-11-12 2015-05-18 キヤノン株式会社 画像表示装置、その制御方法、および制御プログラム

Also Published As

Publication number Publication date
JPWO2018034002A1 (ja) 2019-06-13
US20190180042A1 (en) 2019-06-13
JP6762366B2 (ja) 2020-09-30

Similar Documents

Publication Publication Date Title
EP3079082B1 (en) Method and apparatus for album display
JP5795687B2 (ja) 写真を自動的に共有するためのスマートカメラ
EP2892208B1 (en) Method and apparatus for operating electronic device
JP5823499B2 (ja) コンテンツ処理装置、コンテンツ処理方法、コンテンツ処理プログラム、及び集積回路
CN103944963B (zh) 数据同步方法、装置、设备及系统
KR20140143725A (ko) 이미지 상관 방법 및 그 전자 장치
US20140337697A1 (en) System and method for providing content to an apparatus based on location of the apparatus
CN105980975B (zh) 信息处理设备、信息处理方法及程序
JP5587390B2 (ja) 撮像装置で撮像された画像の選択方法、システム及び装置
JP5348682B2 (ja) 画像管理装置、その制御方法及びプログラム
JP2023036595A (ja) スマートフォン、スマートフォンの制御方法、プログラム
KR20170098113A (ko) 전자 장치의 이미지 그룹 생성 방법 및 그 전자 장치
JP6762366B2 (ja) 画像表示装置、画像表示制御装置、画像表示制御プログラム、及び画像表示制御方法
WO2017193343A1 (zh) 媒体文件分享方法、媒体文件分享设备及终端
JP2015072633A (ja) 画像処理装置及びプログラム
JP2017108356A (ja) 画像管理システム、画像管理方法、プログラム
GB2513865A (en) A method for interacting with an augmented reality scene
JP5865551B2 (ja) コンテンツ表示方法、プログラム及びコンテンツ表示システム
KR20120080379A (ko) 디지털 카메라의 이미지 어노테이션 처리 방법 및 장치
CN106503133B (zh) 云盘数据处理方法及装置
KR20150026120A (ko) 객체 편집 방법 및 이를 위한 전자 기기
JP6845604B2 (ja) プログラム
WO2023021759A1 (ja) 情報処理装置、情報処理方法
KR101963298B1 (ko) 사진 관리 전용 어플리케이션이 구동되는 스마트기기 및 그 사진관리방법
JP2014204273A (ja) 画像記録装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16913530

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018534254

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16913530

Country of ref document: EP

Kind code of ref document: A1