WO2012121160A1 - 電子機器、画像表示システム及び画像選択方法 - Google Patents

電子機器、画像表示システム及び画像選択方法 Download PDF

Info

Publication number
WO2012121160A1
WO2012121160A1 PCT/JP2012/055429 JP2012055429W WO2012121160A1 WO 2012121160 A1 WO2012121160 A1 WO 2012121160A1 JP 2012055429 W JP2012055429 W JP 2012055429W WO 2012121160 A1 WO2012121160 A1 WO 2012121160A1
Authority
WO
WIPO (PCT)
Prior art keywords
score
unit
image data
electronic device
imaging
Prior art date
Application number
PCT/JP2012/055429
Other languages
English (en)
French (fr)
Inventor
弘二 西垣
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP12754899.8A priority Critical patent/EP2683162A4/en
Publication of WO2012121160A1 publication Critical patent/WO2012121160A1/ja
Priority to US14/016,898 priority patent/US20140002354A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Definitions

  • the present invention relates to an electronic device, an image display system, and an image selection method.
  • This application claims priority based on Japanese Patent Application No. 2011-047596 for which it applied on March 4, 2011, and uses the content here.
  • Patent Document 1 describes a display system in which a plurality of small devices are arranged on a tile to form one display.
  • the conventional digital signage has a problem that an image according to each user's preference cannot be displayed.
  • the aspect which concerns on this invention aims at providing the electronic device which can select the image which a user likes automatically, an image display system, and an image selection method.
  • an imaging unit that captures an image of a subject and generates image data
  • a sensor unit that detects a physical quantity given by a user, a physical quantity detected by the sensor unit, and the imaging unit
  • a calculation unit that calculates a score representing the emotional state of the user based on the image data
  • a storage unit that stores the image data generated by the imaging unit and the score calculated by the calculation unit in association with each other
  • a selection unit that selects image data based on the score stored in the storage unit.
  • FIG. 6 is a sequence diagram illustrating an operation of image reception processing according to the first embodiment.
  • FIG. 6 is a sequence diagram illustrating an operation of image display processing according to the first embodiment.
  • FIG. 10 is a sequence diagram illustrating an operation of image display processing according to the second embodiment.
  • FIG. 10 is a sequence diagram illustrating an operation of image display processing according to the third embodiment.
  • FIG. 1 is a block diagram showing a functional configuration of an electronic device 100 according to an embodiment of the present invention.
  • the electronic device 100 is a mobile terminal such as a mobile phone, a PDA (Personal Digital Assistant), a smartphone, a game device, or a digital camera.
  • the electronic device 100 according to the present embodiment includes a sensor unit 110, a communication unit 120, a control unit 130, a storage unit (weight storage unit) 140, a power supply unit 150, a display unit 160, The time measuring unit 170 and the position detecting unit 180 are included.
  • the sensor unit 110 detects physical quantities given to the device by the user (that is, pressure, temperature, etc. given to the electronic device 100 used by the user) by various sensors, and sensor signals are detected for each type of detected physical quantity. Is output.
  • the sensor unit 110 includes an acceleration sensor 111, a pressure sensor 112, a temperature sensor 113, a humidity sensor 114, a microphone 115, an imaging unit 116, an image analysis unit 117, a touch panel 118, and a gyro sensor 119. Consists of including.
  • the acceleration sensor 111 detects an acceleration caused by a hit or vibration given to the device by the user, and outputs a sensor signal corresponding to the detected acceleration to the control unit 130.
  • the acceleration sensor 111 detects acceleration at intervals of 0.2 [G] (10 steps (level)) from 0.0 [G] to 2.0 [G], for example. Further, the acceleration sensor 111 may calculate the period of vibration given to the device by the user based on the detected acceleration.
  • the acceleration sensor 111 calculates the vibration period (frequency) at intervals of 2 [Hz] (10 steps) from 0 [Hz] to 20 [Hz], for example. Further, the acceleration sensor 111 may calculate the length of time that the user continues to give vibration to the device based on the detected acceleration.
  • the acceleration sensor 111 is, for example, from 0 second to 5 seconds, in 1 [second] intervals (out), to calculate the length of time the user continues to vibrate to the own device.
  • Pressure sensor 112 is a pressure (e.g., pressure by the force of gripping the casing) applied by the user to the own device is detected and a sensor signal corresponding to the detected pressure, to the control unit 130.
  • the pressure-sensitive sensor 112 detects, for example, the pressure applied to the device by the user in 10 steps every 5 [Pa].
  • Temperature sensor 113 user temperature (e.g., palm temperature gripping the housing) given to the own device is detected and a sensor signal corresponding to the detected temperature, and outputs to the control unit 130.
  • the temperature sensor 113 detects the temperature given to the device by the user in 10 steps every 35 [degrees] to 0.2 [degrees].
  • the humidity sensor 114 detects the humidity (for example, the amount of moisture in the palm that holds the housing) given to the device by the user, and outputs a sensor signal corresponding to the detected humidity to the control unit 130.
  • the humidity sensor 114 detects the humidity given to the device by the user from 0 [%] to 100 [%] at intervals of 10 [%] (10 steps).
  • Microphone 115 a sound that the user has transmitted to the own apparatus (e.g., the frequency and volume of the user's voice) is detected, a sensor signal corresponding to the detected sound, and outputs it to the control unit 130.
  • the microphone 115 outputs a sensor signal corresponding to the length of time that the sound has continued.
  • a microphone 115 a length of time followed by the user's voice, from 0 second to 5 seconds, 1 is detected by the [second] intervals (out), followed by speech detected The sensor signal corresponding to the length of time is output.
  • the imaging unit 116 captures an optical image (subject) to generate image data, and outputs the generated image data to the control unit 130 and the image analysis unit 117.
  • the image analysis unit 117 performs pattern matching on the image data.
  • the image analysis unit 117 corresponds to any one or more of emotion auxiliary information “joy”, “anger”, “sorrow”, and “ease” that is auxiliary information representing the emotional state of the user, with respect to the image data that has undergone pattern matching.
  • emotion auxiliary information “joy”, “anger”, “sorrow”, and “ease” that is auxiliary information representing the emotional state of the user, with respect to the image data that has undergone pattern matching.
  • the image analysis unit 117 determines that the user's face is smiling as a result of executing the pattern matching
  • the image data in which the user's smile is captured corresponds to emotional auxiliary information “joy” and “ease”.
  • the image analysis unit 117 outputs image data obtained by capturing the user's face to the control unit 130 in association with
  • the touch panel 118 is installed on the display unit 160 and receives an operation input from the user.
  • user operations respectively corresponding to emotion auxiliary information “joy”, “anger”, “sorrow”, and “easy” are stored in advance.
  • the touch panel 118 outputs a sensor signal indicating emotion assistance information “joy” to the control unit 130.
  • the touch panel 118 outputs a corresponding sensor signal even when an operation corresponding to emotion assistance information “angry”, “sad”, “easy” is performed.
  • the gyro sensor 119 detects the angle and angular velocity of the device itself, and outputs a sensor signal corresponding to the detected angle and angular velocity to the control unit 130. For example, the gyro sensor 119 detects the direction of the own device in ten steps from the angle and the angular velocity of the own device.
  • the control unit 130 controls the electronic device 100 in an integrated manner, and includes a calculation unit 131, a selection unit 132, and an update unit 133.
  • the calculation unit 131 calculates a “score” representing the emotional state of the user based on the sensor signal input from the sensor unit 110. A method for calculating the “score” will be described later.
  • the calculation unit 131 calculates a score when the imaging unit 116 images a subject, sets the calculated score as an imaging score, and writes it in the storage unit 140 in association with image data of the subject.
  • the storage unit 140 stores the score calculated by the calculation unit 131 when the imaging unit 116 images the subject as an imaging score and stores the score in association with the image data of the subject.
  • a score is calculated based on the sensor signal input from the sensor unit 110, the calculated score is set as a display score, and the displayed image data Write in the storage unit 140 in association with each other.
  • the calculation unit 131 calculates an average value of scores for one day, sets the calculated score as a date score, and stores it in the storage unit 140 in association with the date.
  • the calculation unit 131 calculates a score for each place (position) detected by the position detection unit 180, stores the calculated score in the storage unit 140 in association with each place.
  • the calculation unit 131 calculates a score by multiplying the level of the input sensor signal by a coefficient for each type of detected physical quantity.
  • the coefficient is predetermined for each type of physical quantity. The score indicates that the greater the value, the better the user's emotion (joy, enjoyment), and the smaller the value, the worse the user's emotion (anger, sadness).
  • the calculation unit 131 multiplies the level of the sensor signal corresponding to the acceleration by a predetermined coefficient corresponding to the detected acceleration.
  • the calculation unit 131 multiplies the level of the sensor signal corresponding to the vibration cycle by a predetermined coefficient corresponding to the detected vibration cycle. The same applies to pressure, temperature, humidity, and volume.
  • the calculation unit 131 acquires emotion assistance information from the touch panel 118. In addition, the calculation unit 131 acquires emotion assistance information from the image analysis unit 117. When the emotional auxiliary information is acquired from at least one of the image analysis unit 117 and the touch panel 118, the calculating unit 131 converts the acquired emotional auxiliary information into a score. For example, the calculation unit 131 holds a table that stores a score corresponding to emotion assistance information, and reads a score corresponding to the emotion assistance information acquired from this table.
  • the calculation unit 131 determines emotion auxiliary information based on the frequency of the sound detected by the microphone 115 of the sensor unit 110, and The determined emotional auxiliary information is converted into a score.
  • the calculation unit 131 determines whether the user's voice is laughter (joy, pleasure), throat (sadness), or ashamedy (anger) based on the frequency of the voice.
  • the calculation unit 131 determines that the frequency of the voice is less than 100 [Hz], and the calculation unit 131 sets the frequency of the voice to 100 [Hz] or more and less than 350 [Hz]. If there is “ ⁇ ⁇ ”, it is determined as “laughter” if the audio frequency is 350 [Hz] or higher. On the other hand, when the user is a woman, the calculation unit 131, for example, “speech” if the audio frequency is less than 250 [Hz], and “if the audio frequency is 250 [Hz] or more and less than 500 [Hz]. “ ⁇ ⁇ ”, if the voice frequency is 500 [Hz] or higher, it is determined as “laughter”.
  • the selection unit 132 selects image data based on the score stored in the storage unit 140. Details of the image selection processing in the selection unit 132 will be described later.
  • the update unit 133 performs feedback processing to update the weight of each score based on the score calculated by the calculation unit 131 when image data is selected by the selection unit 132. Details of the feedback processing in the updating unit 133 will be described later.
  • the communication unit 120 wirelessly communicates with other electronic devices 100.
  • the communication unit (transmission unit) 120 transmits the image data selected by the selection unit 132 to another electronic device 100.
  • the communication unit (reception unit) 120 receives a score corresponding to the image data from another electronic device 100.
  • Storage unit 140 a score table showing the scores corresponding to the image data, and the date the score table showing the scores corresponding to the date, and location score table showing the scores corresponding to the location, the score corresponding to the event of the birth date, etc.
  • An event score table indicating a weight, a weight table indicating a weight for each score, and a weight history table indicating a history of weights during image selection processing are stored. Details of each table will be described later.
  • the power supply unit 150 supplies power to each unit.
  • the display unit 160 is a display device such as a liquid crystal display, and a touch panel 118 is installed on the display surface.
  • the display unit 160 displays image data.
  • the time measuring unit 170 measures the date and time.
  • the position detection unit 180 is equipped with, for example, a GPS (Global Positioning System) or the like, and detects the location (position) of the electronic device 100.
  • FIG. 2 is a schematic diagram illustrating a data structure and a data example of a score table stored in the storage unit 140 according to the present embodiment.
  • the score table is a two-dimensional tabular data composed of rows and columns, and has columns for each item of image data, imaging date, imaging location, imaging score, and display score. is doing. Each row of this table exists for each image data.
  • Image data is identification information for identifying image data, and is a file name in the present embodiment.
  • the imaging date is the date (year / month / day) when the image data was captured.
  • the imaging location is a location where image data is captured.
  • the imaging score is a score when imaging image data.
  • the display score is a score when image data is displayed.
  • the imaging date corresponding to the image data “a1.jpg” is “2011/01/01”
  • the imaging location is “location X”
  • the imaging score is “90”
  • the display score Is “70”.
  • the imaging date corresponding to the image data “a2.jpg” is “2011/01/02”
  • the imaging location is “location Y”
  • the imaging score is “80”
  • the display score is “50”. It is.
  • FIG. 3 is a schematic diagram illustrating a data structure and a data example of a date score table stored in the storage unit 140 according to the present embodiment.
  • the date score table is two-dimensional tabular data composed of rows and columns, and has columns of items of date (year / month / day) and date score. Each row in this table exists for each date.
  • the date score is an average value of scores in one day. In the example shown in the figure, the date score corresponding to the date “2011/01/01” is “50”.
  • FIG. 4 is a schematic diagram illustrating a data structure and a data example of a location score table stored in the storage unit 140 according to the present embodiment.
  • the place score table is data in a two-dimensional tabular format composed of rows and columns, and has columns for each item of place and place score. Each row in this table exists for each location.
  • the place score is a score at each place. In the example shown in the figure, the place score corresponding to the place “place X” is “30”.
  • FIG. 5 is a schematic diagram illustrating a data structure and a data example of an event score table stored in the storage unit 140 according to the present embodiment.
  • the event score table is two-dimensional tabular data composed of rows and columns, and has columns of items of events, dates, and event scores. Each row in this table exists for each event.
  • the event is an event preset by the user, such as the user's birthday.
  • the date is the date (year / month / day) of the event.
  • the event score is an average value of date scores on the date (month day) of the event.
  • the date corresponding to the event “Birthday of user B” is “2000/01/01”, and the event score is the average value of the date scores of January 1 from 2000 to 2011 “90”. Is.
  • FIG. 6 is a schematic diagram illustrating a data structure and a data example of a weight table stored in the storage unit 140 according to the present embodiment.
  • the weight table is two-dimensional tabular data composed of rows and columns, and has columns of items of evaluation parameters and weights. Each row of this table exists for each evaluation parameter.
  • the evaluation parameter is a score type used when the selection unit 132 selects image data.
  • the weight is a weight corresponding to the evaluation parameter.
  • the weight corresponding to the evaluation parameter “imaging score” is “1”
  • the weight corresponding to the evaluation parameter “display score” is “1”
  • the weight corresponding to the evaluation parameter “location score” is “1”.
  • FIG. 7 is a schematic diagram illustrating a data structure and a data example of a weight history table stored in the storage unit 140 according to the present embodiment.
  • the weight history table is two-dimensional tabular data composed of rows and columns, and has columns for each item of date / time, score, and weight combination. Each row in this table exists for each date and time.
  • the date / time is the year / month / date / time when an image selection display process described later is performed.
  • the score is a score when the image selection display process is performed.
  • the combination of weights is the weight of each evaluation parameter used when the image selection display process is performed.
  • FIG. 8 is a flowchart illustrating a procedure of imaging score calculation processing according to the present embodiment.
  • the imaging unit 116 images a subject and generates image data.
  • the control unit 130 writes the image data generated by the imaging unit 116 in the storage unit 140.
  • the calculation unit 131 calculates a score based on the sensor signal input from the sensor unit 110, and sets the calculated score as an imaging score.
  • the calculation unit 131 acquires the current date (month / month / day) from the time measuring unit 170, and sets the acquired date as the imaging date.
  • the calculation unit 131 acquires the current position (location) of the own device from the position detection unit 180, and sets the acquired position (location) as the imaging location. Lastly, in step S103, the calculation unit 131 writes the calculated imaging score, the acquired imaging date, the acquired imaging location, and the captured image data in the score table in association with each other.
  • FIG. 9 is a flowchart showing a procedure of display score calculation processing according to the present embodiment.
  • the control unit 130 reads the image data selected by the user from the storage unit 140, and displays the read image data on the display unit. 160.
  • the calculation unit 131 calculates a score based on the sensor signal input from the sensor unit 110, and sets the calculated score as a display score.
  • the calculation unit 131 writes the calculated display score in the score table in association with the displayed image data.
  • the calculation unit 131 calculates the average value of the display score that has already been set and the calculated display score, and the calculated average The value is written in the score table as a display score corresponding to the displayed image data.
  • FIG. 10 is a flowchart illustrating a procedure of image selection display processing according to the present embodiment.
  • the selection unit 132 acquires the current date from the time measuring unit 170. Then, it is determined whether or not an event matching the acquired date (month day) exists in the event table. If there is a matching event, the process proceeds to step S302. If there is no matching event, the process proceeds to step S304.
  • step S302 the selection unit 132 determines whether or not the event score of an event that matches today's date is greater than a predetermined threshold value ⁇ . If the event score is greater than the threshold value ⁇ , the process proceeds to step S303, and if the event score is equal to or less than the threshold value ⁇ , the process proceeds to step S304.
  • step S303 the selection unit 132 sets an event (for example, the birthday of the user B) that matches the today's date as an evaluation parameter.
  • the weight w 5 of the event is made heavier (larger) than the weights of the other evaluation parameters.
  • step S304 the selection unit 132 calculates the evaluation value of each image data based on the score s i and the weight w i of each evaluation parameter. Specifically, the selection unit 132 calculates the evaluation value P of each image data by the following equation (1).
  • n is the number of evaluation parameters.
  • s 1 is an imaging score
  • s 2 is a display score
  • s 3 is a date score on the imaging date
  • s 4 is a location score on the imaging location.
  • w 1 is the weight of the imaging score
  • w 2 is the weight of the display score
  • w 3 is the weight of the date score
  • w 4 is the weight of the place score.
  • step S305 the selection unit 132 selects a predetermined number (for example, nine) of image data in descending order of evaluation values.
  • step S306 the selection unit 132 displays the selected plurality of pieces of image data on the display unit 160. At this time, the selection unit 132 sequentially displays, for example, the image data selected in the slide show.
  • the updating unit 133 performs feedback processing. Specifically, first, the calculating unit 131 calculates the score based on the sensor signal from the sensor unit 110. Next, the calculation unit 131 writes the current date and time, the calculated score, and the weight of each evaluation parameter in the weight table in association with each other in the weight history table. Next, the update unit 133 updates the weight of each evaluation parameter in the weight table based on the score calculated by the calculation unit 131. For example, when the calculated score is smaller than a predetermined value, the update unit 133 reads a weight combination having a large score from the weight history table, and uses the read weight combination as a weight of each evaluation parameter in the weight table. On the other hand, the update unit 133 does not change the weight of the evaluation parameter when the calculated score is larger than the predetermined value.
  • image data may be selected in consideration of the current location of the own device.
  • the selection unit 132 acquires the current location of the electronic device 100 from the position detection unit 180, and reads a location score corresponding to the acquired location from the location score table.
  • the selection unit 132 reads the location score is greater than a predetermined value, the heavier the weight of the location score.
  • the selection unit 132 may add the current location to the evaluation parameter when the read location score is greater than a predetermined value.
  • the electronic device 100 automatically selects and displays image data based on the score representing the emotional state of the user.
  • the user can automatically select and display the preferred image data by a simple operation without selecting the user himself / herself.
  • the electronic device 100 selects the image data according to the user's preference with higher accuracy. be able to.
  • the image selection system in this embodiment includes a plurality of electronic devices 100.
  • a and B are assigned to the two electronic devices 100, respectively, and are referred to as an electronic device 100A and an electronic device 100B.
  • symbol of A and B is abbreviate
  • FIG. 11 is a sequence diagram showing the operation of the image reception process according to this embodiment.
  • the control unit 130 of the electronic device 100A reads the image data selected by the user from the storage unit 140, and the read image data. Is transmitted to the electronic device 100B via the communication unit 120.
  • the control unit 130 of the electronic device 100B receives image data from the electronic device 100A via the communication unit 120, the control unit 130 stores the received image data in the storage unit 140.
  • step S402 the calculation unit 131 of the electronic device 100B calculates a score based on the sensor signal from the sensor unit 110, and sets the calculated score as a display score. Finally, in step S403, the calculation unit 131 of the electronic device 100B writes the display score in the score table in association with the received image data.
  • FIG. 12 is a sequence diagram showing the operation of the image display process according to this embodiment.
  • the control unit 130 of the electronic device 100A scores the other electronic device 100B that can communicate via the communication unit 120.
  • a score request that is data requesting is transmitted.
  • the control unit 130 of the electronic device 100B reads the score from the storage unit 140 and transmits the read score to the electronic device 100A.
  • the scores transmitted here are the imaging score and display score of each image data, the date score of each date, the location score of each location, and the event score of each event.
  • step S503 when the calculation unit 131 of the electronic device 100A receives the score from the electronic device 100B via the communication unit 120, the calculation unit 131 calculates the score received from the electronic device 100B and the score stored in the storage unit 140.
  • a total value (total score) is calculated.
  • the calculation unit 131 calculates the total value of the imaging score of the electronic device 100A and the imaging score of the electronic device 100B for each image data.
  • the calculation unit 131 calculates the total value of the display score of the electronic device 100A and the display score of the electronic device 100B for each image data.
  • the calculation unit 131 calculates a total value of the date score of the electronic device 100A and the date score of the electronic device 100B for each date.
  • the calculation unit 131 calculates the total value of the location score of the electronic device 100A and the location score of the electronic device 100B for each location. Further, the control unit 130 calculates a total value of the event score of the electronic device 100A and the event score of the electronic device 100B for each event.
  • the selection unit 132 of the electronic device 100A performs image selection display processing based on the calculated total score. The image selection display process is the same as the process shown in FIG.
  • the score may be totaled between three or more electronic devices 100.
  • the electronic device 100 sums up the scores in the plurality of electronic devices 100, and selects image data based on the total score. As a result, it is possible to automatically select and display image data preferred by a plurality of users (both user A of electronic device 100A and user B of electronic device 100B). That is, the electronic device 100 can automatically select image data based on the relationship among a plurality of users.
  • FIG. 13 is a block diagram showing the configuration of the image selection system according to this embodiment.
  • the image selection system in this embodiment includes a plurality of electronic devices 100 and a cork board 200.
  • the cork board 200 includes a plurality of electronic devices 100.
  • the cork board 200 includes nine electronic devices 100 arranged in a tile shape in a vertical 3 ⁇ horizontal 3 form as one display (display device).
  • the cork board 200 is installed in a restaurant, the user A of the electronic device 100A and the user B of the electronic device 100B are guests of the restaurant, and today is the birthday of the user B as an example. .
  • FIG. 14 is a sequence diagram showing the operation of the image display process according to the present embodiment.
  • a selection transmission instruction for automatically selecting and transmitting a plurality of pieces of image data is input from the user A via the touch panel 118
  • the control unit 130 of the electronic device 100A causes the communication unit 120 to operate.
  • a score request is transmitted to another electronic device 100B that can communicate with the electronic device 100B.
  • the control unit 130 of the electronic device 100B reads the score from the storage unit 140 and transmits the read score to the electronic device 100A.
  • step S603 when the calculation unit 131 of the electronic device 100A receives the score from the electronic device 100B, the total value (total score) of each score received from the electronic device 100B and each score stored in the storage unit 140 is calculated. Are calculated respectively.
  • step S604 the selection unit 132 of the electronic device 100A selects nine pieces of image data by image selection processing based on the calculated total score. The image selection process is the same as the process from steps S301 to S305 shown in FIG.
  • step S605 the selection unit 132 of the electronic device 100A communicates the selected nine pieces of image data, the evaluation parameters used during the image selection process, the weight of each evaluation parameter, and the address of the electronic device 100B. It transmits to the cork board 200 via the unit 120.
  • step S606 when the cork board 200 receives nine pieces of image data, the cork board 200 displays the received nine pieces of image data on each electronic device 100 constituting the cork board 200.
  • step S607 the cork board 200 determines whether or not an event is included in the received evaluation parameter. If an event is included in the evaluation parameter, the process proceeds to step S608. On the other hand, if no event is included in the evaluation parameter, the process ends.
  • the cork board 200 displays a message corresponding to the event in step S608.
  • the cork board 200 displays the message “happy birthday”.
  • the cork board 200 transmits a present message “There is a present from the store. Do you accept it?” To the electronic device 100B of the user B.
  • the electronic device 100B transmits data for receiving a present to a terminal installed in the restaurant.
  • the terminal informs the restaurant clerk that the data for receiving the present has been received.
  • the store clerk who confirmed the data gives the user B a present from the restaurant.
  • the user A can display the image data preferred by both the user A and the user B on the cork board 200 without selecting them himself. Further, since the cork board 200 performs processing (message display and present message transmission) based on the evaluation parameters received from the electronic device 100A, it can provide various services based on the relationship between the user A and the user B. .
  • the image selection system according to the present embodiment includes one or more electronic devices 100 and a cork board 200.
  • the cork board 200 in the present embodiment is a digital signage that performs electronic advertisement.
  • FIG. 15 is a sequence diagram illustrating the operation of the image display process according to the present embodiment.
  • step S701 when a selection transmission instruction is input from the user via the touch panel 118, the selection unit 132 of the electronic device 100 selects nine pieces of image data by image selection processing.
  • the image selection process is the same as the process from steps S301 to S305 shown in FIG.
  • step S702 the selection unit 132 of the electronic device 100 selects the selected nine pieces of image data, the evaluation parameters used during the image selection process, the weight of each evaluation parameter, and information on the selected image data (for example, , Imaging location, imaging date and time) are transmitted to the cork board 200.
  • step S ⁇ b> 703 when the cork board 200 receives nine pieces of image data, the cork board 200 displays the received nine pieces of image data on each electronic device 100 constituting the cork board 200.
  • step S704 the cork board 200 analyzes the received image data. Specifically, the cork board 200 analyzes the state of the subject in the image data (for example, playing soccer, a specific person, etc.) by pattern matching.
  • step S706 the cork board 200 selects advertisement data based on the image data and the analysis result of the evaluation parameter. The advertisement data is stored in the cork board 200 in advance.
  • the cork board 200 selects advertisement data for travel to Italy. Finally, in step S707, the cork board 200 transmits the selected advertisement data to the electronic device 100.
  • the user of the electronic device 100 can display the image data that the user likes on the cork board 200 without selecting the user himself / herself. Further, since the cork board 200 selects the advertisement based on the evaluation parameter received from the electronic device 100, it is possible to provide an advertisement according to the user of the electronic device 100.
  • DESCRIPTION OF SYMBOLS 100 ... Electronic device, 110 ... Sensor part, 111 ... Acceleration sensor, 112 ... Pressure sensor, 113 ... Temperature sensor, 114 ... Humidity sensor, 115 ... Microphone, 116 ... Imaging part, 117 ... Image analysis part, 118 ... Touch panel, DESCRIPTION OF SYMBOLS 119 ... Gyro sensor 120 ... Communication part 130 ... Control part 131 ... Calculation part 132 ... Selection part 140 ... Memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Library & Information Science (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 電子機器(100)は、被写体を撮像し画像データを生成する撮像部(116)と、ユーザから与えられた物理量を検出するセンサ部(110)と、センサ部(110)により検出された物理量に基づいて、ユーザの感情状態を表すスコアを算出する算出部(131)と、撮像部(116)により生成された画像データと算出部(131)により算出されたスコアとを対応付けて記憶する記憶部(140)と、記憶部(140)に記憶されたスコアに基づいて画像データを選択する選択部(132)とを備える。

Description

電子機器、画像表示システム及び画像選択方法
 本発明は、電子機器、画像表示システム及び画像選択方法に関する。
 本願は、2011年3月4日に出願された特願2011-047596号に基づき優先権を主張し、その内容をここに援用する。
 現在、リアルタイムカメラを用いて男女・年代などのカテゴリを判別し、判別したカテゴリに応じた画像を表示するデジタルサイネージ(電子看板)がある。また、特許文献1には、複数の小型デバイスをタイル上に並べて1つのディスプレイとするディスプレイシステムが記載されている。
特開平11-134087号公報
 しかしながら、従来のデジタルサイネージでは、各ユーザ夫々の好みに応じた画像を表示することはできない、という問題がある。
 本発明に係る態様は、ユーザの好む画像を自動で選択することができる電子機器、画像表示システム及び画像選択方法を提供することを目的とする。
 本発明に係る一態様は、被写体を撮像し画像データを生成する撮像部と、ユーザから与えられた物理量を検出するセンサ部と、前記センサ部により検出された物理量と前記撮像部により生成された画像データとに基づいて、ユーザの感情状態を表すスコアを算出する算出部と、前記撮像部により生成された画像データと前記算出部により算出されたスコアとを対応付けて記憶する記憶部と、前記記憶部に記憶されたスコアに基づいて画像データを選択する選択部と、を備える。
 本発明に係る態様によれば、ユーザの好む画像を自動で選択することができる。
本発明に係る一実施形態による電子機器の機能構成を示すブロック図である。 本実施形態による記憶部が記憶するスコアテーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による記憶部が記憶する日付スコアテーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による記憶部が記憶する場所スコアテーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による記憶部が記憶するイベントスコアテーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による記憶部が記憶する重みテーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による記憶部が記憶する重み履歴テーブルのデータ構造及びデータ例を示す概略図である。 本実施形態による撮像スコア算出処理の手順を示すフローチャートである。 本実施形態による表示スコア算出処理の手順を示すフローチャートである。 本実施形態による画像選択表示処理の手順を示すフローチャートである。 実施例1による画像受信処理の動作を示すシーケンス図である。 実施例1による画像表示処理の動作を示すシーケンス図である。 実施例2による画像選択システムの構成を示すブロック図である。 実施例2による画像表示処理の動作を示すシーケンス図である。 実施例3による画像表示処理の動作を示すシーケンス図である。
 以下、図面を参照しながら本発明に係る一実施形態について詳しく説明する。
 図1は、本発明に係る一実施形態による電子機器100の機能構成を示すブロック図である。
 電子機器100は、例えば携帯電話機、PDA(Personal Digital Assistant)、スマートフォン、ゲーム機器、デジタルカメラ等の携帯端末である。図1に示すとおり、本実施形態による電子機器100は、センサ部110と、通信部120と、制御部130と、記憶部(重み記憶部)140と、電源部150と、表示部160と、計時部170と、位置検出部180とを含んで構成される。
 センサ部110は、ユーザが自装置に与えた物理量(すなわち、ユーザが使用している電子機器100に与えられる圧力や温度など)を各種センサにより検出し、検出した物理量の種別毎に、センサ信号を出力する。センサ部110は、加速度センサ111と、感圧センサ112と、温度センサ113と、湿度センサ114と、マイク115と、撮像部116と、画像解析部117と、タッチパネル118と、ジャイロセンサ119とを含んで構成される。
 加速度センサ111は、ユーザが自装置に与えた打撃又は振動などによる加速度を検出し、検出した加速度に応じたセンサ信号を、制御部130に出力する。加速度センサ111は、例えば、0.0[G]から2.0[G]まで、0.2[G]間隔(10段階(レベル))で加速度を検出する。また、加速度センサ111は、ユーザが自装置に与えた振動の周期を、検出した加速度に基づいて算出してもよい。加速度センサ111は、例えば、0[Hz]から20[Hz]まで、2[Hz]間隔(10段階)で、振動の周期(周波数)を算出する。また、加速度センサ111は、ユーザが自装置に振動を与え続けた時間の長さを、検出した加速度に基づいて算出してもよい。加速度センサ111は、例えば、0[秒]から5[秒]まで、1[秒]間隔(5段階)で、ユーザが自装置に振動を与え続けた時間の長さを算出する。
 感圧センサ112は、ユーザが自装置に加えた圧力(例えば、筐体を把持する力による圧力)を検出し、検出した圧力に応じたセンサ信号を、制御部130に出力する。感圧センサ112は、例えば、ユーザが自装置に加えた圧力を、5[Pa]毎に10段階で検出する。
 温度センサ113は、ユーザが自装置に与えた温度(例えば、筐体を把持する掌の温度)を検出し、検出した温度に応じたセンサ信号を、制御部130に出力する。温度センサ113は、例えば、ユーザが自装置に与えた温度を、摂氏35[度]から0.2[度]毎に、10段階で検出する。
 湿度センサ114は、ユーザが自装置に与えた湿度(例えば、筐体を把持する掌の水分量)を検出し、検出した湿度に応じたセンサ信号を、制御部130に出力する。湿度センサ114は、例えば、ユーザが自装置に与えた湿度を、0[%]から100[%]まで、10[%]間隔(10段階)で検出する。
 マイク115は、ユーザが自装置に伝えた音(例えば、ユーザの音声の周波数及び音量)を検出し、検出した音に応じたセンサ信号を、制御部130に出力する。例えば、マイク115は、音声が続いた時間の長さに応じたセンサ信号を出力する。ここで、例えば、マイク115は、ユーザの音声が続いた時間の長さを、0[秒]から5[秒]まで、1[秒]間隔(5段階)で検出し、検出した音声が続いた時間の長さに応じたセンサ信号を出力する。
 撮像部116は、光学像(被写体)を撮像して画像データを生成し、生成した画像データを制御部130と画像解析部117とに出力する。
 画像解析部117は、入力された画像データに人の顔が含まれている場合に、その画像データに対して、パターンマッチングを実行する。そして、画像解析部117は、パターンマッチングを実行した画像データを、ユーザの感情状態を表す補助情報である感情補助情報「喜」「怒」「哀」「楽」のいずれか1つ以上に対応させる。例えば、画像解析部117は、パターンマッチングを実行した結果、ユーザの顔が笑顔であると判定した場合、ユーザの笑顔が撮像された画像データを、感情補助情報「喜」及び「楽」に対応させる。
画像解析部117は、感情補助情報に対応させて、ユーザの顔が撮像された画像データを制御部130に出力する。
 タッチパネル118は、表示部160上に設置され、ユーザからの操作入力を受け付ける。ここで、感情補助情報「喜」「怒」「哀」「楽」にそれぞれ対応するユーザ操作があらかじめ記憶されている。例えば、ユーザが「喜」に対応する操作をした場合、タッチパネル118は、感情補助情報「喜」を示すセンサ信号を、制御部130に出力する。また、感情補助情報「怒」「哀」「楽」に対応する操作が行われた場合ついても同様に、タッチパネル118は、対応するセンサ信号を出力する。
 ジャイロセンサ119は、自装置の角度及び角速度を検出し、検出した角度及び角速度に応じたセンサ信号を、制御部130に出力する。ジャイロセンサ119は、例えば、自装置の角度及び角速度から自装置の方向を10段階で検出する。
 制御部130は、電子機器100を統括して制御し、算出部131と、選択部132と、更新部133とを含んで構成される。算出部131は、撮像部116が被写体を撮像すると、センサ部110から入力されたセンサ信号に基づき、ユーザの感情状態を表す「スコア」を算出する。この「スコア」の算出方法は後述する。
 算出部131は、撮像部116が被写体を撮像したときにスコアを算出し、算出したスコアを撮像スコアとし、その被写体の画像データと対応付けて記憶部140に書き込む。(あるいは、記憶部140は、撮像部116が被写体を撮像したときに算出部131によって算出されたスコアを撮像スコアとし、その被写体の画像データと対応付けて記憶する。)また、算出部131は、記憶部140に記憶された画像データが表示部160に表示されると、センサ部110から入力されたセンサ信号に基づきスコアを算出し、算出したスコアを表示スコアとし、表示された画像データと対応付けて記憶部140に書き込む。また、算出部131は、1日におけるスコアの平均値を算出し、算出したスコアを日付スコアとし、日付と対応付けて記憶部140に記憶する。また、算出部131は、位置検出部180により検出された場所(位置)毎にスコアを算出し、算出したスコアを場所スコアとし、各場所と対応付けて記憶部140に記憶する。
 以下、スコアの算出方法について説明する。算出部131は、入力されたセンサ信号のレベルに、検出された物理量の種別毎の係数を乗算することで、スコアを算出する。ここで、係数は、物理量の種別毎に予め定められているものとする。スコアは、値が大きいほどユーザの感情が良く(喜び、楽しみ)、値が小さいほどユーザの感情が悪い(怒り、哀しみ)ことを表す。
 例えば、算出部131は、加速度に応じたセンサ信号のレベルに、検出された加速度に対応する予め定められた係数を乗算する。また、算出部131は、振動の周期に応じたセンサ信号のレベルに、検出された振動の周期に対応する予め定められた係数を乗算する。
圧力、温度、湿度、及び音量についても、同様である。
 また、算出部131は、感情補助情報をタッチパネル118から取得する。また、算出部131は、感情補助情報を画像解析部117から取得する。算出部131は、画像解析部117及びタッチパネル118の少なくとも一方から感情補助情報を取得した場合、取得した感情補助情報をスコアに変換する。例えば、算出部131は、感情補助情報に対応するスコアを記憶するテーブルを保持し、このテーブルから取得した感情補助情報に対応するスコアを読み出す。一方、画像解析部117及びタッチパネル118のいずれからも感情補助情報を取得していない場合、算出部131は、センサ部110のマイク115が検出した音声の周波数に基づいて感情補助情報を判定し、判定した感情補助情報をスコアに変換する。ここで、算出部131は、音声の周波数に基づいて、ユーザの音声が、笑い声(喜び、楽しみ)・嗚咽(哀しみ)・慟哭(怒り)のいずれであるかを判定する。
 具体的には、ユーザが男性である場合、算出部131は、例えば、音声の周波数が100[Hz]未満であれば「嗚咽」、音声の周波数が100[Hz]以上350[Hz]未満であれば「慟哭」、音声の周波数が350[Hz]以上であれば「笑い声」と判定する。一方、ユーザが女性である場合、算出部131は、例えば、音声の周波数が250[Hz]未満であれば「嗚咽」、音声の周波数が250[Hz]以上500[Hz]未満であれば「慟哭」、音声の周波数が500[Hz]以上であれば「笑い声」と判定する。
 選択部132は、記憶部140に記憶されたスコアに基づいて画像データを選択する。
選択部132における画像選択処理の詳細については後述する。更新部133は、選択部132により画像データが選択されたときに、算出部131により算出されたスコアに基づいて、各スコアの重みを更新するフィードバック処理を行う。更新部133におけるフィードバック処理の詳細については後述する。
 通信部120は、他の電子機器100と無線通信する。また、通信部(送信部)120は、選択部132により選択された画像データを他の電子機器100に送信する。また、通信部(受信部)120は、他の電子機器100から画像データに対応するスコアを受信する。記憶部140は、画像データに対応するスコアを示すスコアテーブルと、日付に対応するスコアを示す日付スコアテーブルと、場所に対応するスコアを示す場所スコアテーブルと、誕生日等のイベントに対応するスコアを示すイベントスコアテーブルと、各スコアに対する重みを示す重みテーブルと、画像選択処理時の重みの履歴を示す重み履歴テーブルとを記憶する。各テーブルの詳細については後述する。
 電源部150は、各部に電力を供給する。表示部160は、液晶表示器等の表示装置であり、その表示面にタッチパネル118が設置されている。また、表示部160は、画像データを表示する。計時部170は、年月日及び時刻を計時する。位置検出部180は、例えばGPS(Global Positioning System)等を搭載し、電子機器100の場所(位置)を検出する。
 次に、記憶部140が記憶する各種テーブルについて説明する。
 図2は、本実施形態による記憶部140が記憶するスコアテーブルのデータ構造及びデータ例を示す概略図である。図示するように、スコアテーブルは、行と列からなる2次元の表形式のデータであり、画像データと、撮像日付と、撮像場所と、撮像スコアと、表示スコアとの各項目の列を有している。このテーブルの各行は画像データ毎に存在する。画像データは、画像データを識別する識別情報であり、本実施形態ではファイル名である。
撮像日付は、画像データが撮像された日付(年月日)である。撮像場所は、画像データが撮像された場所である。撮像スコアは、画像データを撮像したときのスコアである。表示スコアは、画像データを表示したときのスコアである。
 図に示す例では、画像データ「a1.jpg」に対応する撮像日付は「2011/01/01」であり、撮像場所は「場所X」であり、撮像スコアは「90」であり、表示スコアは「70」である。また、画像データ「a2.jpg」に対応する撮像日付は「2011/01/02」であり、撮像場所は「場所Y」であり、撮像スコアは「80」であり、表示スコアは「50」である。
 図3は、本実施形態による記憶部140が記憶する日付スコアテーブルのデータ構造及びデータ例を示す概略図である。図示するように、日付スコアテーブルは、行と列からなる2次元の表形式のデータであり、日付(年月日)と、日付スコアとの各項目の列を有している。このテーブルの各行は日付毎に存在する。日付スコアは、1日におけるスコアの平均値である。図に示す例では、日付「2011/01/01」に対応する日付スコアは「50」である。
 図4は、本実施形態による記憶部140が記憶する場所スコアテーブルのデータ構造及びデータ例を示す概略図である。図示するように、場所スコアテーブルは、行と列からなる2次元の表形式のデータであり、場所と、場所スコアとの各項目の列を有している。このテーブルの各行は場所毎に存在する。場所スコアは、各場所におけるスコアである。図に示す例では、場所「場所X」に対応する場所スコアは「30」である。
 図5は、本実施形態による記憶部140が記憶するイベントスコアテーブルのデータ構造及びデータ例を示す概略図である。図示するように、イベントスコアテーブルは、行と列からなる2次元の表形式のデータであり、イベントと、日付と、イベントスコアとの各項目の列を有している。このテーブルの各行はイベント毎に存在する。イベントは、ユーザの誕生日等、ユーザが予め設定したイベントである。日付は、イベントの日付(年月日)である。イベントスコアは、イベントの日付(月日)における日付スコアの平均値である。図に示す例では、イベント「ユーザBの誕生日」に対応する日付は「2000/01/01」であり、イベントスコアは2000年から2011年における1月1日の日付スコアの平均値「90」である。
 図6は、本実施形態による記憶部140が記憶する重みテーブルのデータ構造及びデータ例を示す概略図である。図示するように、重みテーブルは、行と列からなる2次元の表形式のデータであり、評価パラメータと、重みとの各項目の列を有している。このテーブルの各行は評価パラメータ毎に存在する。評価パラメータは、選択部132が画像データを選択する際に用いるスコアの種別である。重みは、評価パラメータに対応する重みである。図に示す例では、評価パラメータ「撮像スコア」に対応する重みは「1」であり、評価パラメータ「表示スコア」に対応する重みは「1」であり、評価パラメータ「日付スコア」に対応する重みは「2」であり、評価パラメータ「場所スコア」に対応する重みは「1」である。
 図7は、本実施形態による記憶部140が記憶する重み履歴テーブルのデータ構造及びデータ例を示す概略図である。図示するように、重み履歴テーブルは、行と列からなる2次元の表形式のデータであり、日時と、スコアと、重みの組合せとの各項目の列を有している。このテーブルの各行は日時毎に存在する。日時は、後述する画像選択表示処理が行われた年月日時である。スコアは、画像選択表示処理が行われたときのスコアである。重みの組合せは、画像選択表示処理が行われたときに用いられた各評価パラメータの重みである。図示する例では、「2011/01/01,12:24」に行われた画像選択表示処理時のスコアは「20」であり、重みの組合せは「撮像スコアの重みw1=1,表示スコアw2=2,日付スコアw3=1,場所スコアw4=1」である。「2011/01/01,15:00」に行われた画像選択表示処理時のスコアは「70」であり、重みの組合せは「撮像スコアの重みw1=1,表示スコアw2=1,日付スコアw3=2,場所スコアw4=1」である。
 次に、図8を参照して、電子機器100による撮像スコア算出処理について説明する。
図8は、本実施形態による撮像スコア算出処理の手順を示すフローチャートである。
 タッチパネル118を介してユーザから撮像指示が入力されると、まず、ステップS101において、撮像部116が、被写体を撮像し画像データを生成する。制御部130は、撮像部116により生成された画像データを記憶部140に書き込む。
 次に、ステップS102において、算出部131が、センサ部110から入力されたセンサ信号に基づきスコアを算出し、算出したスコアを撮像スコアとする。また、算出部131は、計時部170から現在の日付(月月日)を取得し、取得した日付を撮像日付とする。また、算出部131は、位置検出部180から、自装置の現在の位置(場所)を取得し、取得したその位置(場所)を撮像場所とする。
 最後に、ステップS103において、算出部131は、算出した撮像スコアと、取得した撮像日付と、取得した撮像場所と、撮像された画像データとを対応付けてスコアテーブルに書き込む。
 次に、図9を参照して、電子機器100による表示スコア算出処理について説明する。
図9は、本実施形態による表示スコア算出処理の手順を示すフローチャートである。
 タッチパネル118を介してユーザから画像データの表示指示が入力されると、まず、ステップS201において、制御部130は、ユーザにより選択された画像データを記憶部140から読み出し、読み出した画像データを表示部160に表示する。
 次に、ステップS202において、算出部131が、センサ部110から入力されたセンサ信号に基づきスコアを算出し、算出したスコアを表示スコアとする。
 最後に、ステップS203において、算出部131は、算出した表示スコアを、表示した画像データに対応付けてスコアテーブルに書き込む。ただし、算出部131は、表示した画像データの表示スコアが既にスコアテーブルに設定されている場合には、既に設定されている表示スコアと算出した表示スコアとの平均値を算出し、算出した平均値を、表示した画像データに対応する表示スコアとしてスコアテーブルに書き込む。
 次に、図10を参照して、電子機器100による画像選択表示処理について説明する。
図10は、本実施形態による画像選択表示処理の手順を示すフローチャートである。
 タッチパネル118を介してユーザから、複数枚の画像データを自動で選択して表示する選択表示指示が入力されると、まず、ステップS301において、選択部132は、計時部170から本日の日付を取得し、取得した日付(月日)に合致するイベントがイベントテーブルに存在するか否かを判定する。合致するイベントがある場合にはステップS302へ移行し、合致するイベントがない場合にはステップS304へ移行する。
 次に、ステップS302において、選択部132は、本日の日付と合致するイベントのイベントスコアが所定の閾値αより大きいか否かを判定する。イベントスコアが閾値αより大きい場合はステップS303へ移行し、イベントスコアが閾値α以下の場合はステップS304へ移行する。
 次に、ステップS303において、選択部132は、本日の日付と合致するイベント(例えば、ユーザBの誕生日)を評価パラメータとする。このとき、イベント(ユーザBの誕生日)の重みwを他の評価パラメータの重みより重く(大きく)する。
 次に、ステップS304において、選択部132は、各評価パラメータのスコアsと重みwに基づいて、各画像データの評価値を算出する。具体的には、選択部132は、次の式(1)により各画像データの評価値Pを算出する。
Figure JPOXMLDOC01-appb-M000001
 ただし、nは、評価パラメータの数である。また、sは、撮像スコアであり、sは、表示スコアであり、sは、撮像日付における日付スコアであり、sは、撮像場所における場所スコアである。また、wは、撮像スコアの重みであり、wは、表示スコアの重みであり、wは、日付スコアの重みであり、wは、場所スコアの重みである。ここで、選択部132は、イベント(例えば、ユーザBの誕生日)が評価パラメータである場合は、撮像日付(月日)がイベントの日付「01/01」と一致する画像データについてはs=イベントスコア「90」とし、撮像日付(月日)がイベントの日付「01/01」と一致しない画像データについてはs=0とする。
 続いて、ステップS305において、選択部132は、評価値の大きい順に画像データを所定枚数(例えば、9枚)選択する。
 そして、ステップS306において、選択部132は、選択した複数枚の画像データを表示部160に表示する。このとき、選択部132は、例えば、スライドショーにて選択した画像データを順に表示する。
 最後に、ステップS307において、更新部133が、フィードバック処理を行う。具体的には、まず、算出部131が、センサ部110からのセンサ信号に基づきスコアを算出する。次に、算出部131は、現在の日時と、算出したスコアと、重みテーブルにおける各評価パラメータの重みとを対応付けて重み履歴テーブルに書き込む。次に、更新部133が、算出部131により算出されたスコアに基づいて、重みテーブルにおける各評価パラメータの重みを更新する。例えば、更新部133は、算出したスコアが所定値より小さい場合には、重み履歴テーブルからスコアの大きい重みの組合せを読み出し、読み出した重みの組合せを重みテーブルにおける各評価パラメータの重みとする。一方、更新部133は、算出したスコアが所定値より大きい場合には評価パラメータの重みを変更しない。
 なお、上述した画像選択表示処理において、自装置の現在の場所を考慮して画像データを選択してもよい。例えば、選択部132は、位置検出部180から電子機器100の現在いる場所を取得し、取得した場所に対応する場所スコアを場所スコアテーブルから読み出す。そして、選択部132は、読み出した場所スコアが所定値より大きい場合に、場所スコアの重みを重くする。或いは、選択部132は、読み出した場所スコアが所定値より大きい場合は、現在いる場所を評価パラメータに追加してもよい。
 このように、本実施形態によれば、電子機器100は、ユーザの感情状態を表すスコアに基づいて、画像データを自動的に選択して表示する。これにより、ユーザは、自ら選択することなく、簡単な操作で好む画像データを自動で選択して表示することができる。
 また、複数枚の画像データを自動で選択したときのスコアに基づいて、各評価パラメータの重みを更新しているため、電子機器100は、より精度良くユーザの好みに応じた画像データを選択することができる。
 以下、本実施形態に係る電子機器100を用いた画像選択システムについて、実施例を挙げて説明する。
 本実施例における画像選択システムは、複数台の電子機器100を含んで構成される。
 以下、説明の便宜を図るため、2台の電子機器100のそれぞれに対しA,Bの符号を割り当て、電子機器100A、電子機器100Bと記す。なお、電子機器100A及び電子機器100Bに共通する事項については、A,Bの符号を省略し、単に「電子機器100」又は「各電子機器100」と記す。
 図11は、本実施例による画像受信処理の動作を示すシーケンス図である。
 タッチパネル118を介してユーザから画像データを送信する操作がされると、まず、ステップS401において、電子機器100Aの制御部130は、ユーザが選択した画像データを記憶部140から読み出し、読み出した画像データを電子機器100Bへ通信部120を介して送信する。電子機器100Bの制御部130は、電子機器100Aから通信部120を介して画像データを受信すると、受信した画像データを記憶部140に記憶する。
 そして、ステップS402において、電子機器100Bの算出部131が、センサ部110からのセンサ信号に基づいてスコアを算出し、算出したスコアを表示スコアとする。
 最後に、ステップS403において、電子機器100Bの算出部131は、表示スコアを受信した画像データに対応付けてスコアテーブルに書き込む。
 図12は、本実施例による画像表示処理の動作を示すシーケンス図である。
 タッチパネル118を介してユーザから選択表示指示が入力されると、まず、ステップS501において、電子機器100Aの制御部130は、通信部120を介して通信可能な他の電子機器100Bに対して、スコアを要求するデータであるスコア要求を送信する。
 ステップS502において、電子機器100Bの制御部130は、通信部120を介してスコア要求を受信すると、記憶部140からスコアを読み出し、読み出したスコアを電子機器100Aに送信する。ここで送信するスコアは、各画像データの撮像スコア及び表示スコアと、各日付の日付スコアと、各場所の場所スコアと、各イベントのイベントスコアである。
 ステップS503において、電子機器100Aの算出部131は、通信部120を介して電子機器100Bからスコアを受信すると、電子機器100Bから受信した各スコアと、記憶部140に記憶されている各スコアとの合計値(合計スコア)を夫々算出する。具体的には、算出部131は、電子機器100Aの撮像スコアと電子機器100Bの撮像スコアとの合計値を画像データ毎に算出する。また、算出部131は、電子機器100Aの表示スコアと電子機器100Bの表示スコアとの合計値を画像データ毎に算出する。また、算出部131は、電子機器100Aの日付スコアと電子機器100Bの日付スコアとの合計値を日付毎に算出する。また、算出部131は、電子機器100Aの場所スコアと電子機器100Bの場所スコアとの合計値を場所毎に算出する。また、制御部130は、電子機器100Aのイベントスコアと電子機器100Bのイベントスコアとの合計値をイベント毎に算出する。
 そして、ステップS504において、電子機器100Aの選択部132が、算出した合計スコアに基づいて、画像選択表示処理を行う。画像選択表示処理は、図10に示す処理と同様である。
 なお、本実施例では2台の電子機器100間でスコアを合計する場合を説明したが、3台以上の電子機器100間でスコアを合計してもよい。
 このように、本実施例によれば、電子機器100は、複数台の電子機器100におけるスコアを合計し、合計したスコアに基づき画像データを選択する。これにより、複数のユーザ(電子機器100AのユーザAと電子機器100BのユーザB双方)の好む画像データを自動的に選択して表示することができる。すなわち、電子機器100は複数のユーザの関係性に基づき画像データを自動で選択することができる。
 次に、実施例2について説明する。実施例2は、実施例1の変形例である。
 図13は、本実施例による画像選択システムの構成を示すブロック図である。
 本実施例おける画像選択システムは、複数台の電子機器100と、コルクボード200とを含んで構成される。コルクボード200は、複数台の電子機器100から構成される。本実施例における、コルクボード200は、9台の電子機器100をタイル状に縦3×横3に並べて1つのディスプレイ(表示装置)とする。
 本実施例では、コルクボード200はレストランに設置されており、電子機器100AのユーザAと電子機器100BのユーザBはレストランの来客であり、本日はユーザBの誕生日である場合を例に説明する。
 図14は、本実施例による画像表示処理の動作を示すシーケンス図である。
 タッチパネル118を介してユーザAから、複数枚の画像データを自動で選択して送信する選択送信指示が入力されると、まず、ステップS601において、電子機器100Aの制御部130は、通信部120を介して通信可能な他の電子機器100Bに対してスコア要求を送信する。
 ステップS602において、電子機器100Bの制御部130は、通信部120を介してスコア要求を受信すると、記憶部140からスコアを読み出し、読み出したスコアを電子機器100Aに送信する。
 ステップS603において、電子機器100Aの算出部131は、電子機器100Bからスコアを受信すると、電子機器100Bから受信した各スコアと、記憶部140に記憶されている各スコアとの合計値(合計スコア)を夫々算出する。
 そして、ステップS604において、電子機器100Aの選択部132が、算出した合計スコアに基づいて、画像選択処理により9枚の画像データを選択する。画像選択処理は、図10に示すステップS301からS305までの処理と同様である。
 次に、ステップS605において、電子機器100Aの選択部132は、選択した9枚の画像データと、画像選択処理時に用いた評価パラメータと、各評価パラメータの重みと、電子機器100Bのアドレスとを通信部120を介してコルクボード200に送信する。
 ステップS606において、コルクボード200は、9枚の画像データを受信すると、コルクボード200を構成する各電子機器100に、受信した9枚の画像データを夫々表示する。
 次に、ステップS607において、コルクボード200は、受信した評価パラメータにイベントが含まれるか否かを判定する。評価パラメータにイベントが含まれる場合にはステップS608へ進む。一方、評価パラメータにイベントが含まれない場合には処理を終了する。
 評価パラメータにイベントが含まれる場合には、ステップS608において、コルクボード200は、そのイベントに応じたメッセージを表示する。本例では、評価パラメータに含まれるイベントが「ユーザBの誕生日」であるため、コルクボード200は、メッセージ「誕生日おめでとう」を表示する。
 そして、ステップS609において、コルクボード200は、ユーザBの電子機器100Bにプレゼントメッセージ「お店からプレゼントがあります。受け取りますか?」を送信する。
 ユーザBが電子機器100Bにおいてプレゼントを受取る操作を行うと、電子機器100Bは、プレゼントを受取るためのデータをレストランに設置された端末に送信する。端末は、プレゼントを受取るためのデータを受信したことをレストランの店員に報知する。
そのデータを確認した店員は、ユーザBにレストランからのプレゼントを贈る。
 このように、本実施例によれば、ユーザAは、ユーザAとユーザB双方の好む画像データを自ら選択することなくコルクボード200に表示することができる。また、コルクボード200は、電子機器100Aから受信した評価パラメータに基づき処理(メッセージの表示及びプレゼントメッセージの送信)を行うため、ユーザAとユーザBの関係性に基づく様々なサービスを提供することができる。
 次に、実施例3について説明する。
 本実施例による画像選択システムは、1台以上の電子機器100とコルクボード200を含んで構成される。本実施例におけるコルクボード200は、電子広告を行うデジタルサイネージである。
 図15は、本実施例による画像表示処理の動作を示すシーケンス図である。
 まず、ステップS701において、タッチパネル118を介してユーザから選択送信指示が入力されると、電子機器100の選択部132が、画像選択処理により9枚の画像データを選択する。画像選択処理は、図10に示すステップS301からS305までの処理と同様である。
 次に、ステップS702において、電子機器100の選択部132は、選択した9枚の画像データと、画像選択処理時に用いた評価パラメータと、各評価パラメータの重みと、選択した画像データの情報(例えば、撮像場所、撮像日時等)をコルクボード200に送信する。
 ステップS703において、コルクボード200は、9枚の画像データを受信すると、コルクボード200を構成する各電子機器100に、受信した9枚の画像データを夫々表示する。
 次に、ステップS704において、コルクボード200は、受信した画像データを解析する。具体的には、コルクボード200は、パターンマッチングにより、画像データにおける被写体の状況(例えば、サッカーをしている、特定の人物が写っている等)を解析する。
 次に、ステップS705において、コルクボード200は、受信した評価パラメータを解析する。例えば、コルクボード200は、評価パラメータ「場所スコア」の重みが重い場合には、受信した画像データの撮像場所(例えば、撮像場所=「イタリア」)を解析結果とする。
 そして、ステップS706において、コルクボード200は、画像データ及び評価パラメータの解析結果に基づいて広告データを選択する。広告データは、予めコルクボード200に記憶されている。例えば、コルクボード200は、画像データの解析結果が「サッカーをしている」であり、評価パラメータの解析結果が「撮像場所=イタリア」である場合には、イタリア旅行の広告データを選択する。
 最後に、ステップS707において、コルクボード200は、選択した広告データを電子機器100に送信する。
 このように、本実施例によれば、電子機器100のユーザは、自ら選択することなくコルクボード200に自身の好む画像データを表示することができる。また、コルクボード200は、電子機器100から受信した評価パラメータに基づき広告を選択しているため、電子機器100のユーザに応じた広告を提供することができる。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 100…電子機器、110…センサ部、111…加速度センサ、112…感圧センサ、113…温度センサ、114…湿度センサ、115…マイク、116…撮像部、117…画像解析部、118…タッチパネル、119…ジャイロセンサ、120…通信部、130…制御部、131…算出部、132…選択部、140…記憶部、150…電源部、160…表示部、170…計時部、180…位置検出部

Claims (9)

  1.  被写体を撮像し画像データを生成する撮像部と、
     ユーザから与えられた物理量を検出するセンサ部と、
     前記センサ部により検出された物理量と前記撮像部により生成された画像データとに基づいて、ユーザの感情状態を表すスコアを算出する算出部と、
     前記撮像部により生成された画像データと前記算出部により算出されたスコアとを対応付けて記憶する記憶部と、
     前記記憶部に記憶されたスコアに基づいて画像データを選択する選択部と、
     を備える電子機器。
  2.  他の電子機器から画像データに対応するスコアを受信する受信部を備え、
     前記選択部は、前記受信部により受信されたスコアと前記記憶部に記憶されたスコアとに基づいて、画像データを選択する
     請求項1に記載の電子機器。
  3.  画像データを表示する表示部を備え、
     前記記憶部は、画像データが生成されたときに前記算出部により算出されたスコアである撮像スコアと、前記画像データが表示されたときに前記算出部により算出されたスコアである表示スコアとを前記画像データと対応付けて記憶し、
     前記撮像スコアの重みと前記表示スコアの重みとを記憶する重み記憶部を備え、
     前記選択部は、前記記憶部に記憶された各スコアに夫々の重みを乗算した値に基づいて、画像データを選択する
     請求項1又は2に記載の電子機器。
  4.  日時を計時する計時部を備え、
     前記記憶部は、画像データが生成された日付と前記日付において前記算出部により算出されたスコアである日付スコアとを記憶し、
     前記重み記憶部は、前記日付スコアの重みを記憶する
     請求項3に記載の電子機器。
  5.  位置を検出する位置検出部を備え、
     前記記憶部は、画像データが生成された位置と前記位置において前記算出部により算出されたスコアである場所スコアとを記憶し、
     前記重み記憶部は、前記場所スコアの重みを記憶する
     請求項3又は4に記載の電子機器。
  6.  前記選択部により画像データが選択されたときに、前記算出部により算出されたスコアに基づいて、前記重み記憶部に記憶された各スコアの重みを更新する更新部
     を備える請求項3から5いずれか1項に記載の電子機器。
  7.  被写体を撮像し画像データを生成する撮像部と、
     ユーザから与えられた物理量を検出するセンサ部と、
     前記センサ部により検出された物理量と前記撮像部により生成された画像データとに基づいて、ユーザの感情状態を表すスコアを算出する算出部と、
     前記撮像部により生成された画像データと前記算出部により算出されたスコアとを対応付けて記憶する記憶部と、
     前記記憶部に記憶されたスコアに基づいて画像データを選択する選択部と、
     前記選択部により選択された画像データを送信する送信部と、
     を備える第1の電子機器と、
     前記第1の電子機器から画像データを受信し、受信した画像データを表示する複数の電子機器からなる表示装置と、
     を有する画像表示システム。
  8.  前記第1の電子機器の送信部は、前記スコアの種別を示す評価パラメータを前記選択された画像データとともに送信し、
     前記複数の電子機器からなる表示装置は、前記第1の電子機器から前記画像データとともに前記評価パラメータを受信し、受信した評価パラメータに基づく処理を行う
     請求項7に記載の画像表示システム。
  9.  被写体を撮像し画像データを生成する撮像部と、
     ユーザから与えられた物理量を検出するセンサ部と、
     を備える電子機器が、前記センサ部により検出された物理量と前記撮像部により生成された画像データとに基づいて、ユーザの感情状態を表すスコアを算出するステップと、
     前記電子機器が、前記撮像部により生成された画像データと前記算出されたスコアとを対応付けて記憶するステップと、
     前記電子機器が、前記記憶されたスコアに基づいて画像データを選択するステップと、
     を有する画像選択方法。
PCT/JP2012/055429 2011-03-04 2012-03-02 電子機器、画像表示システム及び画像選択方法 WO2012121160A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12754899.8A EP2683162A4 (en) 2011-03-04 2012-03-02 ELECTRONIC DEVICE, PICTURE DISPLAY SYSTEM AND PICTURE SELECTION PROCEDURE
US14/016,898 US20140002354A1 (en) 2011-03-04 2013-09-03 Electronic device, image display system, and image selection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011047596A JP5617697B2 (ja) 2011-03-04 2011-03-04 電子機器、画像表示システム及び画像選択方法
JP2011-047596 2011-03-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/016,898 Continuation US20140002354A1 (en) 2011-03-04 2013-09-03 Electronic device, image display system, and image selection method

Publications (1)

Publication Number Publication Date
WO2012121160A1 true WO2012121160A1 (ja) 2012-09-13

Family

ID=46798124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/055429 WO2012121160A1 (ja) 2011-03-04 2012-03-02 電子機器、画像表示システム及び画像選択方法

Country Status (4)

Country Link
US (1) US20140002354A1 (ja)
EP (1) EP2683162A4 (ja)
JP (1) JP5617697B2 (ja)
WO (1) WO2012121160A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9817625B1 (en) 2016-10-20 2017-11-14 International Business Machines Corporation Empathetic image selection
WO2023286249A1 (ja) * 2021-07-15 2023-01-19 日本電信電話株式会社 コミュニケーション支援システム、コミュニケーション支援方法およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298876B2 (en) * 2014-11-07 2019-05-21 Sony Corporation Information processing system, control method, and storage medium
JP6367169B2 (ja) * 2015-09-28 2018-08-01 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
WO2017083786A1 (en) * 2015-11-11 2017-05-18 Elenza, Inc. Calcium sensor and implant
JP6946010B2 (ja) * 2017-01-31 2021-10-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134087A (ja) 1997-08-29 1999-05-21 Xerox Corp データ転送用タイリング可能な複数デバイス、デバイスのダイナミックアレイ及びタイリング可能なディスプレイシステム
JP2004213623A (ja) * 2002-11-25 2004-07-29 Eastman Kodak Co 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム
JP2005064839A (ja) * 2003-08-12 2005-03-10 Sony Corp 記録装置、記録再生装置、再生装置、記録方法、記録再生方法および再生方法
JP2005250977A (ja) * 2004-03-05 2005-09-15 Nikon Corp 撮影装置、画像再生装置、画像鑑賞室、データ蓄積/解析装置、銀塩カメラ、スキャナ
JP2008263274A (ja) * 2007-04-10 2008-10-30 Sony Corp 画像保存処理装置、画像検索装置、画像保存処理方法、画像検索方法、プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP4407198B2 (ja) * 2003-08-11 2010-02-03 ソニー株式会社 記録再生装置、再生装置、記録再生方法および再生方法
JP2005157961A (ja) * 2003-11-28 2005-06-16 Konica Minolta Holdings Inc 画像撮像装置及び画像処理装置
US7325735B2 (en) * 2004-04-02 2008-02-05 K-Nfb Reading Technology, Inc. Directed reading mode for portable reading machine
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
JP4879528B2 (ja) * 2005-08-26 2012-02-22 株式会社日立製作所 マルチラテラルネッティング決済方法、システム及びプログラム
JP4891691B2 (ja) * 2006-07-31 2012-03-07 ヤフー株式会社 位置情報を付加されたデータを検索する方法およびシステム
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134087A (ja) 1997-08-29 1999-05-21 Xerox Corp データ転送用タイリング可能な複数デバイス、デバイスのダイナミックアレイ及びタイリング可能なディスプレイシステム
JP2004213623A (ja) * 2002-11-25 2004-07-29 Eastman Kodak Co 健康管理及び個人セキュリティのための画像生成方法、及び画像生成システム
JP2005064839A (ja) * 2003-08-12 2005-03-10 Sony Corp 記録装置、記録再生装置、再生装置、記録方法、記録再生方法および再生方法
JP2005250977A (ja) * 2004-03-05 2005-09-15 Nikon Corp 撮影装置、画像再生装置、画像鑑賞室、データ蓄積/解析装置、銀塩カメラ、スキャナ
JP2008263274A (ja) * 2007-04-10 2008-10-30 Sony Corp 画像保存処理装置、画像検索装置、画像保存処理方法、画像検索方法、プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2683162A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9817625B1 (en) 2016-10-20 2017-11-14 International Business Machines Corporation Empathetic image selection
US10394511B2 (en) 2016-10-20 2019-08-27 International Business Machines Corporation Empathetic image selection
US10929080B2 (en) 2016-10-20 2021-02-23 International Business Machines Corporation Empathetic image selection
WO2023286249A1 (ja) * 2021-07-15 2023-01-19 日本電信電話株式会社 コミュニケーション支援システム、コミュニケーション支援方法およびプログラム

Also Published As

Publication number Publication date
EP2683162A1 (en) 2014-01-08
JP2012186607A (ja) 2012-09-27
JP5617697B2 (ja) 2014-11-05
US20140002354A1 (en) 2014-01-02
EP2683162A4 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
WO2012121160A1 (ja) 電子機器、画像表示システム及び画像選択方法
WO2019105351A1 (zh) 确定k歌分值的方法和装置
CN109313898A (zh) 提供低声语音的数字助理
JP2014174589A (ja) 拡張現実システム、プログラムおよび拡張現実提供方法
CN114205324A (zh) 消息显示方法、装置、终端、服务器及存储介质
WO2017054205A1 (zh) 一种基于航位推算技术的校准方法和便携式电子设备
CN108763475B (zh) 一种录制方法、录制装置及终端设备
JP5754293B2 (ja) 記入支援システム及びサーバ装置
JP2018060241A (ja) 関心度評価プログラム、対話プログラム、表示プログラム、装置、及び方法
JP6375597B2 (ja) ネットワークシステム、サーバー、プログラム、並びにトレーニング支援方法
CN110795660B (zh) 数据分析方法、装置、电子设备及介质
CN116580707A (zh) 基于语音生成动作视频的方法和装置
JPWO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
WO2019073668A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4969339B2 (ja) キャラクタ表示機能を備えるカラオケシステム
EP2917847B1 (en) Method and digital device for displaying a path in a map with a thickness corresponding to a distance within a section
JP5197190B2 (ja) キャラクタ送信機能を備えるカラオケシステム
JP2023027548A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6475776B2 (ja) 拡張現実システムおよび拡張現実提供方法
US20240171704A1 (en) Communication support system, communication support apparatus, communication support method, and storage medium
JP2020191952A (ja) ユーザ間のtcgの対戦を支援するために端末で実行される方法、システム、プログラム
JP2016047085A (ja) キャラクター連携アプリケーション装置
JP6043320B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP5197189B2 (ja) 歌唱消費カロリーによるキャラクタ表示処理方法
JP2024001583A (ja) 情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12754899

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2012754899

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012754899

Country of ref document: EP