WO2017187678A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2017187678A1
WO2017187678A1 PCT/JP2017/002309 JP2017002309W WO2017187678A1 WO 2017187678 A1 WO2017187678 A1 WO 2017187678A1 JP 2017002309 W JP2017002309 W JP 2017002309W WO 2017187678 A1 WO2017187678 A1 WO 2017187678A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
reading
voice
information processing
Prior art date
Application number
PCT/JP2017/002309
Other languages
English (en)
French (fr)
Inventor
健吾 吉井
村田 誠
直樹 澁谷
允文 加藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/085,419 priority Critical patent/US11074034B2/en
Priority to CN201780024799.XA priority patent/CN109074240B/zh
Priority to JP2018514113A priority patent/JP6891879B2/ja
Priority to EP17788968.0A priority patent/EP3451149A4/en
Publication of WO2017187678A1 publication Critical patent/WO2017187678A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Information obtained by users from information processing terminals connected to the network can be divided into two types: visual information and sound information.
  • Visual information has high image quality and high resolution. Thus, it is possible to present intuitive and easy-to-understand information.
  • visual information the user's field of view is narrowed, and viewing the display screen while moving is dangerous.
  • sound information the user's field of view is not narrowed, and information can be presented even during movement.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a program capable of improving convenience when confirming the read voice information.
  • the information processing system includes an information processing device 1, a server 2, and a display device 3 that are worn by a user.
  • the information processing device 1, the server 2, and the display device 3 can transmit and receive data to and from each other via the network 4.
  • the display device 3 may be an information processing terminal such as a smartphone, a mobile phone, a tablet terminal, or a notebook PC that is carried by the user. Further, when such a display device 3 is paired with the information processing device 1 and connected by wireless communication, the information processing device 1 can perform data transmission / reception with the server 2 via the display device 3.
  • “right” indicates the direction of the user's right side
  • “left” indicates the direction of the user's left side
  • “up” indicates the direction of the user's head
  • “down” Indicates the direction of the user's foot.
  • “front” indicates a direction in which the user's body faces
  • “rear” indicates a direction on the user's back side.
  • the mounting unit may be mounted in close contact with the user's neck or may be mounted separately.
  • Other shapes of the neck-mounted mounting unit include, for example, a pendant type mounted on the user by a neck strap, or a headset type having a neck band passing through the back of the neck instead of a head band applied to the head. Conceivable.
  • the usage form of the wearing unit may be a form used by being directly worn on the human body.
  • the form that is directly worn and used refers to a form that is used without any object between the wearing unit and the human body.
  • the case where the mounting unit shown in FIG. 1 is mounted so as to contact the skin of the user's neck corresponds to this embodiment.
  • various forms such as a headset type and a glasses type that are directly attached to the head are conceivable.
  • wearing unit may be a form used by mounting
  • the form that is used by being indirectly worn refers to a form that is used in the state where some object exists between the wearing unit and the human body. For example, when the wearing unit shown in FIG.
  • auditory information presentation that is, information presentation by voice
  • pull type and push type are assumed for the presented information.
  • the pull type is information that is requested and presented when the user wants to know, and is activated by a button operation, a screen operation, or a voice operation.
  • the push type is information that is automatically presented without being conscious of the user, and for example, e-mail notification, incoming call, call from application, notification, battery remaining amount warning, and the like are assumed.
  • Push-type voice notification has the advantage that information is automatically presented, while it has the disadvantage that it takes time to check detailed information.
  • visual information such as text and images cannot be referred to, and missed information cannot be easily referred to later.
  • the time when the user's position (name of place, etc.) and action at the time of presenting the voice information are linked and recorded and the text of the presented (read-out) voice information is presented together with the user action and position.
  • a line UI User Interface
  • the audio information timeline UI by displaying the bookmarked information or displaying detailed information (with an image if there is an image), the user can display the audio information that he / she is interested in. It can be easily confirmed later.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the information processing apparatus 1 according to the present embodiment.
  • the information processing apparatus 1 includes a control unit 10, a communication unit 11, a microphone 12, a camera 13, a 9-axis sensor 14, a speaker 15, a position positioning unit 16, and a storage unit 17.
  • the control unit 10 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing device 1 according to various programs.
  • the control unit 10 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the control unit 10 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • control unit 10 functions as a reading information acquisition unit 10a, a reading control unit 10b, a user situation recognition unit 10c, an operation recognition unit 10d, and a reading history transmission control unit 10e. .
  • the reading information acquisition unit 10a acquires information to be presented to the user (read out).
  • the read-out information may be received from an external device (for example, a smartphone) or a network (for example, the server 2) by the communication unit 11, may be acquired from the storage unit 17, or from an application that is activated on the information processing device 1. You may get it. Further, the read-out information acquisition unit 10a may acquire information from a website by an RSS reader.
  • the read-out control unit 10b controls to output the read-out information acquired by the read-out information acquisition unit 10a from the speaker 15. For example, the reading control unit 10b performs speech synthesis based on the reading information (text information), converts the reading information into speech, outputs the generated voice information from the speaker 15, and presents it to the user. Also, the reading control unit 10b controls to read out a part of the acquired reading information (only the title, up to the title and summary, up to the first sentence of the title and the text, etc.) Based on this, if it is determined that additional reading is necessary, the output of the reading information is further controlled.
  • the reading control unit 10b controls to output the read-out information acquired by the read-out information acquisition unit 10a from the speaker 15. For example, the reading control unit 10b performs speech synthesis based on the reading information (text information), converts the reading information into speech, outputs the generated voice information from the speaker 15, and presents it to the user. Also, the reading control unit 10b controls to read out a part of the acquired reading information (only
  • the user situation recognition unit 10c recognizes the user situation based on various sensor information. Specifically, the user situation recognizing unit 10c detects the user voice collected by the microphone 12 and the surrounding environmental sound, the surrounding captured image captured by the camera 13, and the sensor value (acceleration detected by the 9-axis sensor 14). The position and action of the user (running, walking, riding a bicycle) using at least one of the sensor value, the gyro sensor value, the geomagnetic sensor value, etc.) or the position information acquired by the position positioning unit 16 Etc.). Furthermore, the user situation recognition unit 10c can recognize a high context of behavior in addition to behavior recognition (low context) such as walking, bicycle, running, stationary, and vehicle. The high context of action is the result of recognizing action details in more detail, for example, at home, returning home, commuting, office, or going out.
  • the operation recognition unit 10d recognizes an operation input by the user.
  • the operation recognizing unit 10d performs voice recognition of the user voice collected by the microphone 12 and accepts an operation instruction by voice from the user.
  • voice operation by the user for example, “Skip, More, Bookmark, Again, Previous” is assumed.
  • “Skip” is an instruction to proceed to the next audio information
  • “More” is an instruction to request further information
  • “Bookmark” is an instruction to mark the current audio information
  • “Again” is an audio information of the present Is an instruction to reproduce again from the beginning (repeat instruction)
  • Previous is an instruction to return to the previous information.
  • the reading history transmission control unit 10e performs control so that the communication unit 11 transmits to the server 2 the history of reading information (hereinafter referred to as “reading history”) that has been subjected to voice output control by the reading control unit 10b. To do.
  • the reading history includes the situation at the time of reading (time, position, action (high context, low context)), operation, reading information, and read-out information (the portion of the reading information that is actually output as voice).
  • the communication unit 11 is a communication module for transmitting and receiving data to and from other devices by wire / wireless.
  • the communication unit 11 is a system such as a wired LAN (Local Area Network), wireless LAN, Wi-Fi (Wireless Fidelity (registered trademark)), infrared communication, Bluetooth (registered trademark), short-range / non-contact communication, and the like. Wirelessly or directly via a network access point.
  • the microphone 12 collects the user's voice and the surrounding environment, and outputs it to the control unit 10 as voice data.
  • the camera 13 photoelectrically converts a lens system including an imaging lens, an aperture, a zoom lens, a focus lens, and the like, a drive system that causes the lens system to perform a focus operation and a zoom operation, and imaging light obtained by the lens system.
  • a solid-state image pickup device array for generating an image pickup signal.
  • the solid-state imaging device array may be realized by, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
  • the camera 13 is provided so that the front of the user can be imaged in a state where the information processing apparatus 1 (mounting unit) is mounted on the user.
  • the camera 13 can capture the scenery around the user and the scenery in the direction in which the user is looking. Further, the camera 13 may be provided so that the user's face can be imaged in a state where the information processing apparatus 1 is worn by the user. In this case, the information processing apparatus 1 can specify the user's line-of-sight direction and facial expression from the captured image. In addition, the camera 13 outputs captured image data that is a digital signal to the control unit 10.
  • the 9-axis sensor 14 includes a 3-axis gyro sensor (detection of angular velocity (rotational speed)), a 3-axis acceleration sensor (also referred to as G sensor, detection of acceleration during movement), and a 3-axis geomagnetic sensor (compass, absolute direction (azimuth) ) Detection).
  • the 9-axis sensor 14 has a function of sensing the state of the user wearing the information processing apparatus 1 or the surrounding state.
  • the 9-axis sensor 14 is an example of a sensor unit, and the present embodiment is not limited thereto.
  • a speed sensor or a vibration sensor may be further used, or an acceleration sensor, a gyro sensor, and a geomagnetic sensor may be used. At least one of them may be used.
  • the sensor unit may be provided in a device different from the information processing device 1 (mounting unit), or may be provided in a distributed manner in a plurality of devices.
  • an acceleration sensor, a gyro sensor, and a geomagnetic sensor may be provided in a device (for example, an earphone) attached to the head, and a speed sensor or a vibration sensor may be provided in a smartphone.
  • the 9-axis sensor 14 outputs information indicating the sensing result (sensor information) to the control unit 10.
  • the speaker 15 reproduces the audio signal processed by the reading control unit 10b according to the control of the control unit 10.
  • the speaker 15 may have directivity.
  • the position positioning unit 16 has a function of detecting the current position of the information processing apparatus 1 based on an externally acquired signal.
  • the positioning unit 16 is realized by a GPS (Global Positioning System) positioning unit, receives a radio wave from a GPS satellite, detects a position where the information processing apparatus 1 exists, and detects the position.
  • the position information is output to the control unit 10.
  • the information processing apparatus 1 detects a position by, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), transmission / reception with a mobile phone / PHS / smartphone, or short-range communication. There may be.
  • the storage unit 17 stores programs and parameters for the above-described control unit 10 to execute each function. Further, the storage unit 17 according to the present embodiment may accumulate a reading history to be transmitted to the server 2.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the server 2 according to the present embodiment.
  • the server 2 includes a control unit 20, a communication unit 21, and a storage unit 22.
  • Control unit 20 The control unit 20 functions as an arithmetic processing device and a control device, and controls the overall operation in the server 2 according to various programs.
  • the control unit 20 is realized by an electronic circuit such as a CPU or a microprocessor.
  • the control unit 20 may include a ROM that stores programs to be used, calculation parameters, and the like, and a RAM that temporarily stores parameters that change as appropriate.
  • control unit 20 functions as a storage control unit 20a, a timeline UI generation unit 20b, and a transmission control unit 20c, as shown in FIG.
  • the storage control unit 20a controls the storage unit 22 to store the reading history transmitted from the information processing apparatus 1 and received by the communication unit 21.
  • the timeline UI generation unit 20b generates a timeline UI to be provided when the user confirms read-out information later based on the read-out history stored in the storage unit 22.
  • a specific example of the timeline UI to be generated will be described later with reference to FIGS.
  • the transmission control unit 20c controls to transmit the generated timeline UI from the communication unit 21 to the display device 3 (for example, a user's smartphone).
  • the communication unit 21 is a communication module for transmitting and receiving data to and from other devices by wire / wireless.
  • the communication unit 21 is connected to the information processing apparatus 1 via the network 4 and receives a reading history.
  • the communication unit 21 is connected to the display device 3 via the network 4 and transmits the timeline UI generated by the control unit 20.
  • the storage unit 22 stores programs and parameters for the above-described control unit 20 to execute each function. Further, the storage unit 22 according to the present embodiment accumulates the reading history transmitted from the information processing apparatus 1. Here, a data example of the reading history will be described with reference to FIG.
  • FIG. 4 is a diagram showing an example of the reading history data according to the present embodiment.
  • the reading history data includes, for example, reading date / time, position (for example, latitude / longitude information), position name, action high context, action low context, operation (operation input by the user), reading information, and reading out. Information is stored in association with each other.
  • the position name can be acquired with reference to map data based on latitude and longitude information, for example.
  • the position name may be recognized by the user situation recognition unit 10c of the information processing apparatus 1 or may be recognized on the server 2 side.
  • reading information indicates the acquisition source of the reading information (for example, the URL when acquired from the network).
  • the information actually read out is stored as “read-out information”.
  • the configuration of the information processing system according to the present embodiment is not limited to the example illustrated in FIG. 1, and the configuration of the server 2 described above is provided in the display device 3 realized by an information processing terminal such as a smartphone.
  • a system configuration including the display device 3 may be employed.
  • FIG. 5 is a flowchart showing a reading process by the information processing apparatus 1 according to the present embodiment.
  • the information processing apparatus 1 recognizes a user situation by the user situation recognition unit 10c (step S103).
  • a reading event occurs at a preset time, periodically, irregularly, or when new information is acquired. For example, a reading event of the latest news or event information may occur at a fixed time of the day. Alternatively, the user situation may be continuously recognized, and a read-out event may be generated when the recognition result satisfies a predetermined condition.
  • the user situation is recognized based on various information acquired from the microphone 12, the camera 13, the 9-axis sensor 14 (acceleration sensor, gyro sensor, geomagnetic sensor, etc.), and the position measurement unit 16 (GPS, etc.). Can be broken.
  • the user situation recognition unit 10c recognizes the user's position, the high context of the action, the low context, and the like.
  • the information processing apparatus 1 acquires reading information (step S106).
  • the information processing apparatus 1 performs information reading control (that is, audio output control from the speaker 15) (step S109).
  • step S115 the reading control unit 10b of the information processing apparatus 1 determines whether or not to perform additional reading.
  • user operations during reading information include, for example, Skip, More, Bookmark, Again, and Previous. Further, since “More” is a request instruction for more detailed information, the information processing apparatus 1 performs additional reading.
  • the information processing device 1 reads the reading date and time, position, action high context, low context, user operation during reading (Skip, More, Bookmark, Again, Previous), reading information, and reading
  • the reading history including the completed information is transmitted to the server 2 (step S118).
  • FIG. 6 is a flowchart showing timeline UI generation processing by the server 2 of this embodiment.
  • the server 2 receives a timeline UI acquisition request from an external device (here, using the display device 3) (step S ⁇ b> 120)
  • the server 2 stores the target user stored in the storage unit 17.
  • a reading history is acquired (step S123).
  • the timeline UI generation unit 20b of the server 2 determines the user load based on the behavior information (high context, low context) included in the reading history (step S126).
  • the user load indicates the degree of a situation in which it is difficult for the user to hear voice information (it is difficult to concentrate on the voice information). For example, during running or cycling, it is determined that the user load is high because the user concentrates on running or driving, that is, it is difficult to hear voice information. Further, during walking, it is determined that the user load is not high compared to running and cycling. When the user is on the train, it is determined that the user load is lower than when walking, that is, the voice information is easy to hear.
  • the timeline UI generation unit 20b performs a preference determination on the user's voice information based on the operation information included in the reading history (step S129). For example, when a “Skip” operation is performed, a negative determination (determination that the user does not like (not interested) information) is performed, and a “More”, “Bookmark”, or “Again” operation is performed. If yes, a positive determination (determination that the information is preferred (interested) by the user) is made. Further, when the “Previous” operation is performed or when no operation is performed, neither negative / positive determination is performed.
  • the timeline UI generation unit 20b calculates the granularity of the display information based on the user load and the preference determination result (step S132).
  • the granularity of the display information indicates how detailed the audio information is displayed on the timeline UI (whether only the title or the text is displayed). For example, when the user load is high or when a positive determination is made, the timeline UI generation unit 20b has a granularity of “large”, when the user load is medium or when there is no preference determination, the granularity is “medium”, and the user load is low Alternatively, when a negative determination is made, the particle size is calculated as “small”.
  • the timeline UI generation unit 20b generates a timeline UI based on the calculated granularity information and various information included in the reading history (step S135). For example, the timeline UI generation unit 20b arranges the read-out information in time series together with an icon, a position name, and a time indicating the high context of the user's action at the time of reading. In addition, the timeline UI generation unit 20b controls how detailed the read-out information is displayed according to the calculated granularity information.
  • the process in the case of generating the timeline UI based on the user load, the preference determination result, and the granularity information is described, but the present embodiment is not limited to this.
  • read-out information may be displayed in time series, or captured images captured at the time of reading may be displayed in time series. Specific examples of such various timeline UIs will be described later.
  • step S138 the process returns to step S123 (step S138).
  • steps S123 to S135 are repeated until the processing of all the reading history for one day is performed.
  • the server 2 transmits the generated timeline UI to the external device that is the acquisition request source of the timeline UI, for example, the display device 3 (step S141).
  • FIG. 7 is a flowchart showing a timeline UI display process by the display device 3 of the present embodiment. As illustrated in FIG. 7, first, the display device 3 makes a timeline UI acquisition request to the server 2 (step S150).
  • step S153 when the display device 3 acquires the timeline UI from the server 2 (step S153 / Yes), the display device 3 displays the timeline UI on the display unit (step S156).
  • step S159 / Yes the display device 3 determines whether or not to update the display according to the user operation (step S162).
  • step S162 the display device 3 returns to step S156 to update the display of the timeline UI. For example, when the user taps on a map displayed together with the timeline UI on the touch panel display of the display device 3, the display device 3 scrolls the timeline UI so as to display the voice information read out at the tapped position. To update the display.
  • FIG. 8 is a diagram showing a screen display example according to the first example of the present embodiment.
  • a display field including one timeline map image (a map image showing a timeline locus) is displayed every time a user action (high context) is switched.
  • the display screen 30 includes a display column of “6: 50-7: 30 On your way home” and “7: 45-8: 30 The Outside column is displayed in chronological order.
  • only two display fields “going home” and “going out” are displayed. However, scrolling the screen displays display columns for other actions.
  • the “outing” display field includes a display image 301 of “7: 45-8: 30 Outside” indicating a high context of time and action, a map image 302, a display 303 of information related to reading, and a display 304 of reading information. including.
  • the reading information displayed on the reading-related information display 303 and the reading information display 304 is the timeline locus on the map (corresponding movement route at the time of action. Here, the movement route at “outing”). It is information read out in the vicinity of the point tapped arbitrarily. On the timeline locus, pins are displayed at points where information is read out.
  • a captured image in the vicinity of the arbitrarily tapped point (a captured image captured by the camera 13 of the information processing apparatus 1 when the user is moving the point) is displayed.
  • the captured images at each point may be sequentially displayed.
  • the user can easily search for information by using the scene as a clue so that he / she wants to confirm the information he / she hears when he / she is in this place while looking at the scene in the captured image.
  • Reading information display 303 shows reading time, type of reading information (news, event, etc.), low context of action (running, walking, riding a bicycle, riding a train, etc.), location Includes (location name) display.
  • the text of the read information is displayed.
  • a title display 305, an information provider, and a text 306 are displayed as shown in FIG.
  • a link to an information provider for example, a news site
  • the screen changes to a news site.
  • the read-out text (read-out information) is displayed small, and the text that has not been read out is displayed large. For example, when only the title and the first sentence of the text are read at the time of reading, the second sentence is displayed larger. In this way, information that has not been read out is highlighted.
  • highlighting a display mode in which characters are enlarged is used.
  • this embodiment is not limited to this, and the display mode is not limited to this, and a different font, font, background, or animation is added.
  • the highlighting may be performed by, for example. The situation in which the user confirms the audio information later is assumed that the user is interested in the audio information presented and wants to know more details. If it is intuitively understood whether or not the information is unheard information, the convenience is further improved.
  • the display column of “Returning home” is also displayed in the same way. That is, it includes a display image 307 of “7: 45-8: 30sideOutside” indicating a high context of time and action, a map image 308, a display 309 of information related to reading, and a display 310 of reading information.
  • a title display 311 an information provider, and a body 312 are displayed as the text of the read information. In the body 312, information that has not been read out (second and subsequent sentences of the body) is highlighted (displayed with a large character size).
  • FIGS. 9 to 14 are diagrams for explaining screen transition of the timeline UI according to the present embodiment.
  • “Today's Timeline” is displayed in time series as items indicating each high context of the user behavior of the day.
  • a map image showing the timeline locus at the time of the action is displayed. For example, as shown in FIG. 9, when “7: 45-8: 30 pm: Outside” (outing) is tapped among the items, a timeline locus at the time of going out is displayed as shown in the screen 32 on the right side of FIG. A map image 314 is displayed.
  • the user taps an arbitrary point on the timeline locus.
  • a pin standing on the timeline locus indicates a point where information is read out.
  • information read out at the tapped point is displayed. .
  • the audio information presentation screen on the right side of the screen is tapped as shown in the screen 36 on the right side of FIG.
  • the information is switched to the information of the point (including information display 321 concerning reading and display 322 of reading information).
  • weather forecast information read out when running in the park at 8:25 is displayed.
  • the timeline locus is first shown on the map image, and when the user taps an arbitrary point, the scene (captured image) of the tapped point is displayed.
  • the text of the information read out at the same point is displayed, and the information read out at the same point is output again by voice.
  • the text displayed here may be the text of the voice information that has been read out.
  • a plurality of high context timeline trajectories are displayed on the map image.
  • a pin indicating the point where the information is read out, and the type, time and action (low context) of the read out information are displayed together on the map.
  • the scene (captured image) of the tapped point is displayed on the map image and further read out at the same point.
  • the text of information is displayed, and the information read out at the same point is output again by voice.
  • the read information is output again by voice to reproduce the situation at the time of reading, so that the voice information that the user wanted to hear in detail can be obtained. Can help you remember which one was.
  • Second Embodiment> a screen display example according to the second embodiment will be described with reference to FIG.
  • the voice information read out during the action is displayed.
  • the user's information search is supported by changing the display granularity of the voice information according to the user preference based on the user operation at the time of reading.
  • items “Today's Timeline” are displayed in time series as items 450 and 454 indicating the user behavior of today's day (in this case, a low context as an example). Information read out during the action is displayed.
  • icons 451, 457, and 459 indicating user operations at the time of reading are displayed. For example, if the user performs a voice operation that instructs “Bookmark” to the event information read out while the user is running in the park at 7:45 (speaking “Bookmark”), the timeline of the server 2
  • the UI generation unit 20b determines that positive feedback has been performed. Accordingly, since the event information indicates the interest of the user, display control is performed with the information granularity “large”. That is, the title 452 of the reading-out information and the full text 453 are displayed. It is assumed that the title and the first sentence of the text are read out when reading out.
  • the icon 459 indicates that the voice operation of “More” has been performed. It is judged as a feedback operation, and news information is displayed with a large granularity. That is, for example, as shown in FIG. 16, when the voice operation of “More” is performed on the third news information read out when the user is on the train at 7:10, the title 460 And the full text 461 are displayed.
  • the user operation determined as the Positive Feedback operation is, for example, “More”, “Again”, and “Bookmark”, and in these cases, it can be displayed with a large granularity.
  • the voice operation of “Skip” is determined as a Negative Feedback operation.
  • the information is displayed with a granularity of “small”. For example, as shown in FIG. 16, when a voice operation of “Skip” is performed on the second news information read out when the user is on the train at 7:10, the time of the server 2
  • the line UI generation unit 20b determines that negative feedback has been performed, and displays only the title 458.
  • a predetermined icon 457 indicating that the voice operation of “Skip” has been performed is also displayed.
  • the search amount of the information that the user wants to check is supported by reducing the amount of display.
  • a screen display example according to the third embodiment will be described with reference to FIG.
  • the granularity of the information display is changed according to the user preference based on the user operation for information reading.
  • the granularity of information display may be changed according to the user load based on it.
  • a change in granularity of information display according to the user load will be described.
  • items “461”, “462”, “463”, and “464” indicating the user behavior of today's day (in this example, low context) are displayed in time series as “Today'sToTimeline” Under each item, the text of the voice information read out during the action is displayed.
  • the user load corresponding to the user behavior indicates the degree of the situation in which the user is difficult to hear the voice information (it is difficult to concentrate on the voice information). For example, the user load is high during running or cycling. (That is, it is difficult to hear voice information). Therefore, as shown in FIG. 17, for example, when the user is running at 7:45 (item 461), the event information read out is highly likely to be missed by the user, so the information granularity is “large”. Display control. Specifically, for example, a title and a full text are displayed.
  • the read-out information is (“More” (If no voice operation is performed, it is assumed that the title and the first sentence of the text are up to).
  • the reading information is controlled to be displayed with the information granularity “medium”. For example, as shown in FIG. 17, news information read out when the user is walking (item 462) at 7:10 is likely to be heard a little, so the information granularity is displayed as “medium”. Be controlled. Specifically, for example, the title and the first sentence of the text are displayed.
  • the read-out information is displayed and controlled with the information granularity “small”. For example, as shown in FIG. 17, the news information read out when the user is on the train (item 463) at 7:12 is likely to be heard well, so the information granularity is “small”. Display controlled. Specifically, for example, only the title is displayed. Since the information read aloud on the train is clearly heard, it is unlikely that it will be reconfirmed later. By reducing the amount of voice information displayed, the user can check other reading information. You can avoid getting in the way.
  • the granularity of the display information in the timeline UI is changed according to the preference determination result based on the user operation at the time of reading information and the user load based on the user action at the time of reading information.
  • the present embodiment is not limited to this.
  • the font size of the display information may be changed according to the preference determination result or the user load.
  • items 471 and 474 indicating the user behavior of the day today are displayed in time series as “Today's Timeline” on the screen 47, and below each item.
  • the text of the voice information read out during the action is displayed.
  • the timeline UI generation unit 20b of the server 2 determines that positive feedback has been performed.
  • the display control is performed with the information granularity “large” and the font size “large” is further displayed. That is, the title of the reading information and the whole text are displayed in a font size larger than that of the negatively fed back audio information and the audio information whose preference has not been determined.
  • a predetermined icon 472 indicating that the voice operation of “Bookmark” has been performed is also displayed.
  • the second event information read out when the user is running in the park at 7:45 does not perform any operation
  • the third event information When a voice operation instructing “Skip” is performed (the icon 473 means that the “Skip” operation is performed), the display control is performed with the font size “small”. In this way, by displaying audio information that the user is not interested in in a small size, it is possible to prevent the user from getting in the way when searching for information while scrolling the timeline UI.
  • items 481, 483, and 486 indicating the user behavior of today's day are displayed in time series as “Today's Timeline” on the screen 48.
  • the text of the voice information read out during the action is displayed.
  • the voice information that has been read out is displayed, and “paused” (display 482, display 485) is displayed when reading is interrupted according to the context of the user action, and “continue” (display 484, display 487) is restarted. Is displayed.
  • FIG. 20 is a diagram for explaining another timeline UI according to the present embodiment.
  • Today's Timeline captured images 491, 492, 493 (for example, by the camera 13 of the information processing apparatus 1) in which a scene at a point where information is read out on the day today are displayed.
  • a peripheral captured image captured at the time of reading information or a captured image of each point prepared in advance) is displayed in time series. Since the memory of where the voice information was presented is likely to remain, the user can easily check the information he / she missed later, such as the screen 49 shown in FIG. It becomes possible to search for target information.
  • the text, time, type of information, and the like of the voice information read out at the place may be displayed.
  • the text displayed on the screen 52 is actually read-out voice information (read-out information), and a predetermined keyword is highlighted in the read-out information (for example, the font size is increased). Displayed).
  • the predetermined keyword is assumed to be a word that is likely to remain in the memory of the user who has heard the read-out information, such as a proper noun or a noun used in the title.
  • this technique can also take the following structures.
  • Output control that outputs information on a display screen that displays the text of the voice information in chronological order with information granularity determined based on a user operation at the time of reading the voice information included in the acquired voice information reading history
  • An information processing apparatus comprising a unit.
  • the information processing apparatus according to (1) wherein the information granularity is an information amount, and is controlled by only the title, the title and a part of the text, or the title and the whole text.
  • the user operation is a voice input operation indicating a skip instruction, a repeat instruction, a detailed reproduction instruction, a bookmark instruction, or a previous instruction.
  • the output control unit further outputs information on the display screen in which the font size of the audio information is changed in accordance with a user preference estimated based on the user operation.
  • Any one of (1) to (3) The information processing apparatus according to claim 1. (5) Any one of (1) to (4), wherein an information granularity of the voice information is controlled in accordance with a user load estimated based on a user action at the time of reading the voice information included in the reading history.
  • the information processing apparatus according to any one of 5).
  • the information processing apparatus according to any one of (1) to (6), wherein the read-out information displayed on the display screen highlights a portion of the text that has not been read out from the text of the read-out information. .
  • a movement trajectory based on the user's position history at the time of reading out each piece of audio information included in the reading history is displayed on a map image included in the display screen, and further, in the vicinity of an arbitrary point of the movement locus specified by the user.
  • the information processing apparatus according to any one of (1) to (7), wherein the read voice information is displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

読み上げられた音声情報を確認する際の利便性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提供する。取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 近年の情報処理および情報通信技術の発展に伴い、コンピュータが広く普及し、日常生活においてもコンピュータが積極的に利用されるようになった。例えば、スマートフォン、携帯電話端末等のモバイル通信端末を用いて、外出先からネットワークに接続して情報を閲覧したり、目的地までの経路案内サービスを利用したりすること等が可能となった。
 ネットワークに接続した情報処理端末からユーザが得る情報は、視覚情報と音情報の大きく2つに分けられ、特に視覚情報は高画質・高解像度であり、グラフィックス表現の進歩や映像表示技術の発達により、直感的で分かりやすい情報を提示することが可能である。しかし視覚情報の場合はユーザの視野が狭まり、移動中に表示画面を見ることは危険が伴う。一方、音情報であればユーザの視野が狭まることなく、移動中であっても情報提示を受けることができる。
 このような音による情報提示手法に関し、例えば下記特許文献1では、所定条件に基づいて音情報をフィルタリングした上で定位させて出力し、ユーザにとって必要な情報を音情報として直感的に理解させる情報処理装置について記載されている。
特開2013-5021号公報
 ここで、音声による情報提示であれば、日常の「ながら」動作中(歩きながら、自転車に乗りながら、家事をしながら等)でも視覚が奪われることなく提示された情報を理解することができる。しかしながら、音声情報の場合、聞き逃した情報を後から参照することや、詳細な情報を確認することは困難であった。
 そこで、本開示では、読み上げられた音声情報を確認する際の利便性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラムを提案する。
 以上説明したように本開示によれば、読み上げられた音声情報を確認する際の利便性を向上させることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理装置の概要を説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による読み上げ履歴データの一例を示す図である。 本実施形態の情報処理装置1による読み上げ処理を示すフローチャートである。 本実施形態のサーバによるタイムラインUI生成処理を示すフローチャートである。 本実施形態の表示装置によるタイムラインUI表示処理を示すフローチャートである。 本実施形態の第1の実施例による画面表示例を示す図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 第1の実施例の変形例によるタイムラインUIについて説明する図である。 本実施形態の第2の実施例による画面表示例を示す図である。 本実施形態の第3の実施例による画面表示例を示す図である。 本実施形態の第4の実施例による画面表示例を示す図である。 本実施形態の第5の実施例による画面表示例を示す図である。 本実施形態による他のタイムラインUIを説明する図である。 本実施形態による他のタイムラインUIを説明する図である。 本実施形態による他のタイムラインUIを説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.情報処理装置1の構成
  2-2.サーバ2の構成
 3.動作処理
  3-1.読み上げ処理
  3-2.タイムラインUI生成処理
  3-3.タイムラインUI表示処理
 4.画面表示例
  4-1.第1の実施例
  4-2.第2の実施例
  4-3.第3の実施例
  4-4.第4の実施例
  4-5.第5の実施例
  4-6.その他
 5.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 まず、本開示の一実施形態による情報処理システムの概要について、図1を参照して説明する。図1は、本実施形態による情報処理システムの概要を説明する図である。
 図1に示すように、本実施形態による情報処理システムは、ユーザに装着される情報処理装置1と、サーバ2と、表示装置3を含む。情報処理装置1、サーバ2、および表示装置3は、ネットワーク4を介して互いにデータの送受信が可能である。なお表示装置3は、ユーザに携帯されるスマートフォンや携帯電話、タブレット端末、またはノートPC等のような情報処理端末であってもよい。また、このような表示装置3が情報処理装置1とペアリングして無線通信接続した場合、情報処理装置1は表示装置3を介してサーバ2とのデータ送受信を行うことが可能である。
 情報処理装置1は、例えばユーザの首に掛けられるネックバンド型の情報処理端末である。ネックバンド型の情報処理装置1は、首の両側から後ろ側(背中側)にかけて半周回するような形状の装着ユニット(装着部)を有し、ユーザの首にかけられることでユーザに装着される。本明細書では、上下左右前後といった方向を示す言葉を用いるが、これらの方向はユーザの直立姿勢における、ユーザの体の中心(例えば鳩尾の位置)からみた方向を示すものとする。例えば、「右」とはユーザの右半身側の方向を示し、「左」とはユーザの左半身側の方向を示し、「上」とはユーザの頭側の方向を示し、「下」とはユーザの足側の方向を示すものとする。また、「前」とはユーザの体が向く方向を示し、「後」とはユーザの背中側の方向を示すものとする。
 図1に示すように、装着ユニットは、ユーザの首に密着して装着されてもよいし、離間して装着されてもよい。なお首かけ型の装着ユニットの他の形状としては、例えば首下げ紐によりユーザに装着されるペンダント型や、頭にかけるヘッドバンドの代わりに首の後ろ側を通るネックバンドを有するヘッドセット型が考えられる。
 また、装着ユニットの使用形態は、人体に直接的に装着されて使用される形態であってもよい。直接的に装着されて使用される形態とは、装着ユニットと人体との間に何らの物体も存在しない状態で使用される形態を指す。例えば、図1に示す装着ユニットがユーザの首の肌に接するように装着される場合は本形態に該当する。他にも、頭部に直接的に装着されるヘッドセット型やメガネ型等の多様な形態が考えられる。若しくは、装着ユニットの使用形態は、人体に間接的に装着されて使用される形態であってもよい。間接的に装着されて使用される形態とは、装着ユニットと人体との間に何らかの物体が存在する状態で使用される形態を指す。例えば、図1に示した装着ユニットが、シャツの襟の下に隠れるように装着される等、服の上からユーザに接するように装着される場合は、本形態に該当する。他にも、首下げ紐によりユーザに装着されるペンダント型や、衣服に留め具等で留められるブローチ型等の多様な形態が考えられる。
 また、本実施形態による情報処理装置1には、複数のマイクロホン、カメラ、およびスピーカが設けられている。マイクロホンは、ユーザ音声又は周囲の環境音等の音声データを取得する。カメラは、周囲の様子を撮像し撮像データを取得する。また、スピーカは、音声データの再生を行う。これらマイクロホン、カメラ、およびスピーカの設置位置および設置数は特に限定しない。例えば、マイクロホン、カメラ、およびスピーカは、1つまたは複数(マイクアレイ等)設けられてもよい。
 (背景)
 ここで、ウェアラブル装置を身に付けて、情報検索サービス、エンターテインメント情報、行動支援情報の提供サービス等を日常的に享受する際、視覚情報により提示されると日常生活の多くの「ながら」中の確認ができないという問題があった。例えば、歩きながら、自転車に乗りながら、家事をしながら等の視覚情報の確認は、視覚が一時的に奪われるため危険であった。
 これに対し、聴覚的な情報提示、すなわち音声による情報提示の場合は、日常の「ながら」動作中にもハンズフリー、アイズフリーで確認することが可能となる。
 また、提示される情報にはプル型とプッシュ型が想定される。プル型とは、ユーザが知りたい時にリクエストして提示される情報であって、ボタン操作や画面操作、音声操作によって発動する。また、プッシュ型とは、ユーザが意識せずとも、自動で提示される情報であって、例えばメール通知、着信、アプリケーションからの呼び出し、通知、電池残量の警告等が想定される。
 プッシュ型の音声通知は、自動的に情報が提示されるというメリットがある一方、詳細な情報を確認したい場合には時間がかかるというデメリットがある。また、テキストや画像など視覚的な情報を参照することができない、聞き逃した情報を後から簡単に参照することが出来ない、というデメリットもある。
 そこで、本実施形態では、読み上げられた音声情報を確認する際の利便性を向上させることを可能とする。
 具体的には、例えば音声情報を提示した際のユーザの位置(場所の名称等)と行動を紐付けて記録し、提示した(読み上げた)音声情報のテキストをユーザ行動や位置と共に提示するタイムラインUI(User Interface)を生成する。音声情報がどこで何をしていた時に提示されたかという記憶は残りやすいため、ユーザは、聞き逃した情報を後から確認する際、自身の行動を辿って容易に目的の情報を探すことが可能となる。また、情報の詳細を知りたい等、気になった情報があれば音声提示された際に音声操作等によりブックマークできるようにする。この場合、音声情報のタイムラインUIにおいて、ブックマーク等された情報を大きく表示したり、詳細な情報を(画像があれば画像と共に)表示したりすることで、ユーザは気になった音声情報を後から容易に確認することができる。
 以上、本実施形態による情報処理装置1の概要について説明した。続いて、本実施形態による情報処理装置1の構成について図2を参照して説明する。
 <<2.構成>>
 <2-1.情報処理装置1の構成>
 続いて、本実施形態による情報処理装置1の構成について図2を参照して説明する。図2は、本実施形態による情報処理装置1の構成の一例を示すブロック図である。図2に示すように、情報処理装置1は、制御部10、通信部11、マイクロホン12、カメラ13、9軸センサ14、スピーカ15、位置測位部16、および記憶部17を有する。
 (制御部10)
 制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部10は、図2に示すように、読み上げ情報取得部10a、読み上げ制御部10b、ユーザ状況認識部10c、操作認識部10d、および読み上げ履歴送信制御部10eとして機能する。
 読み上げ情報取得部10aは、ユーザに音声提示する(読み上げる)情報を取得する。読み上げ情報は、通信部11により外部装置(例えばスマートフォン)やネットワーク上(例えばサーバ2)から受信してもよいし、記憶部17から取得してもよいし、情報処理装置1で起動するアプリケーションから取得してもよい。また、読み上げ情報取得部10aは、RSSリーダーによりWebサイト上から情報を取得してもよい。
 読み上げ制御部10bは、読み上げ情報取得部10aにより取得された読み上げ情報をスピーカ15から音声出力するよう制御する。例えば読み上げ制御部10bは、読み上げ情報(テキスト情報)に基づいて音声合成を行い、読み上げ情報の音声化を行い、生成した音声情報をスピーカ15から出力し、ユーザに提示する。また、読み上げ制御部10bは、取得した読み上げ情報の一部(タイトルのみ、タイトルと要約まで、タイトルと本文の一文目まで等)を読み上げるよう(すなわち、音声出力するよう)制御し、ユーザ操作に基づいて追加読み上げが必要であると判断した場合はさらに読み上げ情報を出力制御する。
 ユーザ状況認識部10cは、各種センサ情報に基づいてユーザ状況を認識する。具体的には、ユーザ状況認識部10cは、マイクロホン12により収音されたユーザ音声や周辺の環境音、カメラ13により撮像された周辺の撮像画像、9軸センサ14により検知されたセンサ値(加速度センサ値、ジャイロセンサ値、地磁気センサ値等)、若しくは位置測位部16により取得された位置情報の少なくもいずれかを用いて、ユーザの位置や行動(走っている、歩いている、自転車に乗っている等)を認識する。さらに、ユーザ状況認識部10cは、徒歩、自転車、ランニング、静止、乗り物等の行動認識(ローコンテキスト)の他、行動のハイコンテキストを認識し得る。行動のハイコンテキストとは、例えば自宅、帰宅、通勤、オフィス、外出等、行動内容をより詳細に認識した結果である。
 操作認識部10dは、ユーザによる操作入力を認識する。例えば、操作認識部10dは、マイクロホン12により収音されたユーザ音声の音声認識を行い、ユーザによる音声での操作指示を受け付ける。ユーザによる音声操作は、例えば「Skip、More、Bookmark、Again、Previous」といったものが想定される。「Skip」は、次の音声情報に進む指示、「More」は、さらに詳しい情報を要求する指示、「Bookmark」は、今の音声情報に目印を付ける指示、「Again」は、今の音声情報を最初からもう一度再生する指示(繰り返し指示)、「Previous」は、前の情報に戻る指示である。
 読み上げ履歴送信制御部10eは、読み上げ制御部10bにより音声出力制御された、すなわち読み上げられた読み上げ情報の履歴(以下、「読み上げ履歴」と称す)を、通信部11からサーバ2へ送信するよう制御する。読み上げ履歴には、読み上げ時の状況(時間、位置、行動(ハイコンテキスト、ローコンテキスト))、操作、読み上げ情報、読み上げ済み情報(読み上げ情報のうち実際に音声出力した部分)が含まれる。
 (通信部11)
 通信部11は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部11は、例えば有線LAN(Local Area Network)、無線LAN、Wi-Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
 (マイクロホン12)
 マイクロホン12は、ユーザの音声や周囲の環境を収音し、音声データとして制御部10に出力する。
 (カメラ13)
 カメラ13は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。例えば、カメラ13は、情報処理装置1(装着ユニット)がユーザに装着された状態で、ユーザの前方を撮像可能に設けられる。この場合、カメラ13は、ユーザの周囲の景色や、ユーザが見ている方向の景色を撮像することが可能となる。また、カメラ13は、情報処理装置1がユーザに装着された状態で、ユーザの顔を撮像可能に設けられてもよい。この場合、情報処理装置1は、撮像画像からユーザの視線方向や表情を特定することが可能となる。また、カメラ13は、デジタル信号とされた撮像画像のデータを制御部10へ出力する。
 (9軸センサ14)
 9軸センサ14は、3軸ジャイロセンサ(角速度(回転速度)の検出)、3軸加速度センサ(Gセンサとも称す。移動時の加速度の検出)、および3軸地磁気センサ(コンパス、絶対方向(方位)の検出)を含む。9軸センサ14は、情報処理装置1を装着したユーザの状態または周囲の状態をセンシングする機能を有する。なお9軸センサ14は、センサ部の一例であって、本実施形態はこれに限定されず、例えば速度センサまたは振動センサ等をさらに用いてもよいし、加速度センサ、ジャイロセンサ、および地磁気センサのうち少なくともいずれかを用いてもよい。また、センサ部は、情報処理装置1(装着ユニット)とは別の装置に設けられていてもよいし、複数の装置に分散して設けられていてもよい。例えば、加速度センサ、ジャイロセンサ、および地磁気センサが頭部に装着されたデバイス(例えばイヤホン)に設けられ、速度センサや振動センサがスマートフォンに設けられてもよい。9軸センサ14は、センシング結果を示す情報(センサ情報)を制御部10へ出力する。
 (スピーカ15)
 スピーカ15は、制御部10の制御に従って、読み上げ制御部10bにより処理された音声信号を再生する。スピーカ15は、指向性を有していてもよい。
 (位置測位部16)
 位置測位部16は、外部からの取得信号に基づいて情報処理装置1の現在位置を検知する機能を有する。具体的には、例えば位置測位部16は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、情報処理装置1が存在している位置を検知し、検知した位置情報を制御部10に出力する。また、情報処理装置1は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
 (記憶部17)
 記憶部17は、上述した制御部10が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部17は、サーバ2へ送信する読み上げ履歴を蓄積してもよい。
 以上、本実施形態による情報処理装置1の内部構成例について具体的に説明した。
 <2-2.サーバ2の構成>
 次に、本実施形態によるサーバ2の構成について図3を参照して説明する。図3は、本実施形態によるサーバ2の構成の一例を示すブロック図である。図3に示すように、サーバ2は、制御部20、通信部21、および記憶部22を有する。
 (制御部20)
 制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部20は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、制御部20は、使用するプログラムや演算パラメータ等を記憶するROM、及び適宜変化するパラメータ等を一時記憶するRAMを含んでいてもよい。
 また、本実施形態による制御部20は、図3に示すように、記憶制御部20a、タイムラインUI生成部20b、および送信制御部20cとして機能する。
 記憶制御部20aは、情報処理装置1から送信され、通信部21により受信した読み上げ履歴を記憶部22に記憶するよう制御する。
 タイムラインUI生成部20bは、記憶部22に記憶された読み上げ履歴に基づいて、ユーザが後から読み上げ情報を確認する際に提供するタイムラインUIを生成する。生成するタイムラインUIの具体例については、図8~図22を参照して後述する。
 送信制御部20cは、生成されたタイムラインUIを通信部21から表示装置3(例えばユーザのスマートフォン)に送信するよう制御する。
 (通信部21)
 通信部21は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部21は、ネットワーク4を介して情報処理装置1と接続し、読み上げ履歴を受信する。また、通信部21は、ネットワーク4を介して表示装置3と接続し、制御部20により生成されたタイムラインUIを送信する。
 (記憶部22)
 記憶部22は、上述した制御部20が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部22は、情報処理装置1から送信された読み上げ履歴を蓄積する。ここで、図4を参照して読み上げ履歴のデータ例について説明する。
 図4は、本実施形態による読み上げ履歴データの一例を示す図である。図4に示すように、読み上げ履歴データは、例えば読み上げの日時、位置(例えば緯度経度情報)、位置名称、行動のハイコンテキスト、行動のローコンテキスト、操作(ユーザによる操作入力)、読み上げ情報、読み上げ済み情報が対応付けて記憶されている。位置名称は、例えば緯度経度情報に基づいて地図データを参照して取得され得る。位置名称は、情報処理装置1のユーザ状況認識部10cにより認識されてもよいし、サーバ2側で認識されてもよい。
 また、「読み上げ情報」は、読み上げ情報の取得元(例えばネットワーク上から取得した場合はそのURL)が示されている。実際に読み上げた情報は、「読み上げ済み情報」として格納される。
 以上、本実施形態によるサーバ2の構成の一例について説明した。
 なお、本実施形態による情報処理システムの構成は図1に示す例に限定されず、上述したサーバ2の構成をスマートフォン等の情報処理端末で実現された表示装置3に設け、情報処理装置1と表示装置3から成るシステム構成としてもよい。
 続いて、本実施形態による動作処理について図5~図7を参照して説明する。
  <<3.動作処理>>
 <3-1.読み上げ処理>
 図5は、本実施形態の情報処理装置1による読み上げ処理を示すフローチャートである。図5に示すように、まず、情報処理装置1は、読み上げイベントが発生すると(ステップS100)、ユーザ状況認識部10cによりユーザ状況の認識を行う(ステップS103)。読み上げイベントは、予め設定された時間や、定期的、不定期的、または新着情報取得時等に発生する。例えば、1日のうち決まった時間に最新ニュースやイベント情報の読み上げイベントが発生するようにしてもよい。また、継続的にユーザ状況の認識を行い、認識結果が所定の条件を満たす場合に読み上げイベントを発生させるようにしてもよい。ユーザ状況の認識は、上述したように、マイクロホン12、カメラ13、9軸センサ14(加速度センサ、ジャイロセンサ、地磁気センサ等)、位置測位部16(GPS等)から取得した各種情報に基づいて行われ得る。例えばユーザ状況認識部10cは、ユーザの位置、行動のハイコンテキスト、ローコンテキスト等を認識する。
 次に、情報処理装置1は、読み上げ情報を取得する(ステップS106)。
 次いで、情報処理装置1は、情報の読み上げ制御(すなわち、スピーカ15からの音声出力制御)を行う(ステップS109)。
 次に、情報の読み上げ中にユーザ操作を認識した場合(ステップS112/Yes)、情報処理装置1の読み上げ制御部10bは、追加読み上げを行うか否かを判断する(ステップS115)。情報読み上げ中のユーザ操作は、上述したように、例えば、Skip、More、Bookmark、Again、Previousといったものがある。また、「More」はさらに詳細な情報の要求指示であるため、情報処理装置1は追加読み上げを行う。
 そして、情報処理装置1は、読み上げが終了すると、読み上げた日時、位置、行動のハイコンテキスト、ローコンテキスト、読み上げ中のユーザ操作(Skip、More、Bookmark、Again、Previous)、読み上げ情報、および読み上げた済み情報を含む読み上げ履歴をサーバ2へ送信する(ステップS118)。
 <3-2.タイムラインUI生成処理>
 図6は、本実施形態のサーバ2によるタイムラインUI生成処理を示すフローチャートである。図6に示すように、まず、サーバ2は、タイムラインUIの取得要求を外部装置(ここでは、表示装置3を用いる)から受け付けると(ステップS120)、記憶部17に記憶された対象ユーザの読み上げ履歴を取得する(ステップS123)。
 次いで、サーバ2のタイムラインUI生成部20bは、読み上げ履歴に含まれる行動情報(ハイコンテキスト、ローコンテキスト)に基づいて、ユーザ負荷を判断する(ステップS126)。本明細書において、ユーザ負荷とは、ユーザが音声情報を聞きにくい(音声情報に集中しにくい)状況の程度を示すものである。例えばランニングやサイクリング中は走ることや運転に集中するためユーザ負荷が高い、すなわち音声情報が聞きにくい状況であると判断される。また、徒歩中は、ランニングやサイクリングに比べるとユーザ負荷は高くないと判断される。また、電車に乗っている時は、徒歩中よりもユーザ負荷は低い、すなわち音声情報が聞き易い状況であると判断される。
 次に、タイムラインUI生成部20bは、読み上げ履歴に含まれる操作情報に基づいてユーザの音声情報に対する嗜好判断を行う(ステップS129)。例えば、「Skip」操作が行われた場合はネガティブ判断(ユーザが好まない(興味がない)情報であるとの判断)を行い、「More」、「Bookmark」、または「Again」操作が行われた場合はポジティブ判断(ユーザが好む(興味がある)情報であるとの判断)を行う。また、「Previous」操作が行われた場合や、何ら操作が行われなかった場合は、ネガポジいずれの判断も行わない。
 次いで、タイムラインUI生成部20bは、ユーザ負荷や嗜好判断結果に基づいて、表示情報の粒度を算出する(ステップS132)。表示情報の粒度とは、タイムラインUIで音声情報をどこまで詳細に(タイトルのみか、本文も表示するか等)表示するかを示すものである。例えばタイムラインUI生成部20bは、ユーザ負荷が高い場合またはポジティブ判断された場合は粒度「大」、ユーザ負荷が中程度の場合または嗜好判断無しの場合は粒度「中」、ユーザ負荷が低い場合またはネガティブ判断された場合は粒度「小」と算出する。
 次に、タイムラインUI生成部20bは、算出された粒度情報や読み上げ履歴に含まれる各種情報に基づいて、タイムラインUIを生成する(ステップS135)。
例えばタイムラインUI生成部20bは、読み上げ時のユーザの行動のハイコンテキストを示すアイコンや位置名称、時刻と共に、読み上げ情報を時系列に並べる。また、タイムラインUI生成部20bは、算出された粒度情報に応じて読み上げ情報をどの程度詳細に表示するかを制御する。例えば粒度「大」の場合はタイトルと本文全てを表示し、粒度「中」の場合はタイトルと本文の1文目までを表示し、粒度「小」の場合はタイトルのみ表示するようにしてもよい。図6に示す動作処理では、ユーザ負荷や嗜好判断結果、粒度情報に基づいてタイムラインUIを生成する場合の処理を説明しているが、本実施形態はこれに限定されない。例えば読み上げ済み情報を時系列で表示したり、読み上げ時に撮像した撮像画像を時系列で表示したりしてもよい。このような様々なタイムラインUIの具体例については後述する。
 続いて、未処理のデータが有る場合はステップS123に戻る(ステップS138)。例えば一日の読み上げ履歴全ての処理を行うまで上記ステップS123~S135が繰り返される。
 そして、サーバ2は、タイムラインUIの取得要求元の外部装置、例えば表示装置3に、生成したタイムラインUIを送信する(ステップS141)。
 <3-3.タイムラインUI表示処理>
 図7は、本実施形態の表示装置3によるタイムラインUI表示処理を示すフローチャートである。図7に示すように、まず、表示装置3は、タイムラインUIの取得要求をサーバ2に対して行う(ステップS150)。
 次に、表示装置3は、タイムラインUIをサーバ2から取得すると(ステップS153/Yes)、タイムラインUIを表示部に表示する(ステップS156)。
 続いて、タイムラインUIに対してユーザ操作が有った場合(ステップS159/Yes)、表示装置3は、ユーザ操作に応じて表示更新を行うか否かを判断する(ステップS162)。
 そして、表示更新を行う判断を行った場合(ステップS162/Yes)、表示装置3は、ステップS156に戻ってタイムラインUIの表示更新を行う。例えば表示装置3のタッチパネルディスプレイにおいてタイムラインUIと共に表示された地図上をユーザがタップ操作した場合、表示装置3は、タップされた位置で読み上げられた音声情報を表示するようタイムラインUIをスクロールさせて表示更新を行う。
  <<4.画面表示例>>
 続いて、本実施形態によるタイムラインUIの画面表示例について複数の実施例を用いて具体的に説明する。
 <4-1.第1の実施例>
 図8は、本実施形態の第1の実施例による画面表示例を示す図である。まず、本実施例によるタイムラインUIでは、ユーザ行動(ハイコンテキスト)の切り替わり毎に、1つのタイムライン地図画像(タイムライン軌跡を示す地図画像)を含む表示欄が表示される。例えば図8に示す例では、表示画面30に、「6:50-7:30 On your way home」の表示欄と、「7:45-8:30
Outside」の表示欄が、時系列順に表示されている。図8に示す例では「帰宅中」と「外出」の2つの表示欄のみが表示されているが、画面をスクロールすることで他の行動時の表示欄が表示される。
 「外出」の表示欄は、時刻と行動のハイコンテキストを示す「7:45-8:30 Outside」の表示画像301と、地図画像302と、読み上げに関する情報の表示303と、読み上げ情報の表示304を含む。読み上げに関する情報の表示303および読み上げ情報の表示304に表示される読み上げ情報は、地図上のタイムライン軌跡(対応する行動時の移動経路。ここでは、「外出」時の移動経路)の各地点のうち任意にタップされた地点付近で読み上げられた情報である。タイムライン軌跡上には、情報を読み上げた地点にピンが表示されている。また、任意にタップされた地点付近の撮像画像(ユーザがその地点を移動している際に情報処理装置1のカメラ13により撮像された撮像画像)が表示される。また、ユーザがタイムライン軌跡を指でなぞってスライドした際に各地点の撮像画像が順次表示されるようにしてもよい。ユーザは撮像画像に写る情景を見ながら、この場所に居た時に聞いた情報を改めて確認したいなというように、情景を手掛かりにして容易に情報検索を行うことができる。
 次いで、表示される読み上げ情報について説明する。読み上げに関する情報の表示303は、読み上げ時刻、読み上げ情報の種類(ニュース、イベント等)、行動のローコンテキスト(走っていた、歩いていた、自転車に乗っていた、電車に乗っていた等)、場所(位置名称)の表示を含む。また、読み上げ情報の表示304では、読み上げられた情報のテキストが表示されている。例えばニュース情報の場合、図8に示すように、タイトル表示305、情報提供元、および本文306が表示されている。タイトル表示305には、例えば情報提供元(例えばニュースサイト)へのリンクが貼られている。ユーザがタイトル表示305をタップすると、ニュースサイトに画面が遷移する。
 また、図8に示す本文306は、読み上げられた文章(読み上げ済み情報)が小さく表示され、読み上げられてない文章が大きく表示されている。例えば読み上げ時にはタイトルと本文1文目までしか読まれなかった場合、2文目から大きく表示される。このように、読み上げられていない情報が強調して表示されている。ここでは強調表示の一例としても文字を大きくする表示態様を用いているが、本実施形態はこれに限定されず、他と異なる色にしたり、書体を変えたり、背景を変えたり、アニメーションを加えたり等することで強調表示を行ってもよい。ユーザが後から音声情報を確認するというシチュエーションは、ユーザが提示された音声情報に興味を持ってさらに詳しく知りたいと思っているということが想定されるため、音声情報を確認する際に、どこからが未聴の情報であるかが直感的に分かれば、より利便性が向上する。
 「帰宅中」の表示欄も同様に表示されている。すなわち、時刻と行動のハイコンテキストを示す「7:45-8:30 Outside」の表示画像307と、地図画像308と、読み上げに関する情報の表示309と、読み上げ情報の表示310を含む。読み上げ情報の表示310も同様に、読み上げられた情報のテキストとして、例えばイベント情報の場合、図8に示すように、タイトル表示311、情報提供元、および本文312が表示されている。本文312は、読み上げられていない情報(本文の2文目以降)が強調表示(文字サイズが大きく表示)されている。
 続いて、本実施例によるタイムラインUIの画面遷移について、図9~図14を参照して説明する。図9~図14は、本実施例によるタイムラインUIの画面遷移を説明する図である。
 図9に示すように、まず、画面31に「Today's Timeline」として、今日一日のユーザ行動の各ハイコンテキストを示す項目が時系列で表示される。ユーザがいずれかの項目をタップすると、その行動時のタイムライン軌跡を示す地図画像が表示される。例えば図9に示すように、各項目のうち「7:45-8:30 pm : Outside」(外出)をタップすると、図9右側の画面32に示すように、外出時のタイムライン軌跡を示す地図画像314が表示される。
 次に、図10左側の画面33に示すように、ユーザはタイムライン軌跡上の任意の地点をタップする。タイムライン軌跡上に立つピンは、情報の読み上げが行われた地点を示す。ユーザが任意の地点をタップすると、図10右側の画面34に示すように、タップした地点で読み上げられた情報(読み上げに関する情報の表示315と、読み上げ情報の表示316を含む。)が表示される。
 次いで、図11左側の画面35に示すように、地図画像314のタイムライン軌跡上の他の地点をタップすると、図11右側の画面36に示すように、画面右側の音声情報提示画面が、タップした地点の情報(読み上げに関する情報の表示321と、読み上げ情報の表示322を含む。)に切り替わる。ここでは、一例として、8時25分に公園を走っていた際に読み上げられた天気予報情報が表示されている。
 次に、例えば図12左側の画面37に示すように、他のハイコンテキストの項目324(「6:50-7:30 pm : On your way home」(帰宅))をタップすると、図12右側の画面38に示すように、帰宅時のタイムライン軌跡を示す地図画像325が表示される。
 次いで、図13左側の画面39に示すように、地図画像325に示される帰宅時のタイムライン軌跡のうち任意の地点をタップすると、図13右側に示すように、タップした地点で読み上げられた情報(読み上げに関する情報の表示326と、読み上げ情報の表示327を含む。)が表示される。ここでは、一例として、7時10分に「2nd St」で自転車に乗っている際に読み上げられたイベント情報が表示されている。
 続いて、さらに他の行動時に提示された音声情報を確認した場合、ユーザは、図14左側の画面41に示すように、画面をスクロール操作し、他のハイコンテキストの項目330(「3:30-4:05 pm : Outside」(外出))を表示させる。当該項目330をタップすると、図14右側の画面42に示すように、外出時のタイムライン軌跡を示す地図画像331が表示される。上述した場合と同様に、地図画像331のタイムライン軌跡のうち任意の地点がタップされると、当該地点で読み上げられた情報が地図画像331の右側に表示される。
 以上、本実施例によるタイムラインUIの画面遷移について具体的に説明した。以下、本実施例の変形例について説明する。
 (変形例)
 図15を参照して、タイムライン軌跡を示す地図画像と共に音声情報のテキストを表示する場合の変形例について説明する。本変形例では、音声提示されたときの状況を再現することで、ユーザの情報検索を支援する。
 具体的には、図15左側の画面43に示すように、まず地図画像上にタイムライン軌跡が示され、ユーザが任意の地点をタップすると、タップされた地点の情景(撮像画像)が表示され、さらに同地点で読み上げられた情報のテキストが表示されると共に、同地点で読み上げられた情報が再度音声出力される。また、ここで表示されるテキストは、読み上げ済みの音声情報のテキストとしてもよい。また、地図画像上には、複数のハイコンテキストのタイムライン軌跡が表示されている。また、情報が読み上げられた地点を示すピンと、読み上げられた情報の種類、時刻、行動(ローコンテキスト)が併せて地図上に表示されている。
 また、ユーザがタイムライン軌跡上の地点をタップすると、図15右側の画面44に示すように、タップされた地点の情景(撮像画像)が地図画像上に表示され、さらに同地点で読み上げられた情報のテキストが表示されると共に、同地点で読み上げられた情報が再度音声出力される。
 このように、タイムライン軌跡や読み上げ地点の撮像画像(情景)の他、読み上げた情報を再度音声で出力して読み上げ時の状況を再現することで、ユーザが詳しく聞きたいと思った音声情報がどれであったかを思い出すことを支援することができる。
 <4-2.第2の実施例>
 続いて、図16を参照して第2の実施例による画面表示例について説明する。第2の実施例では、ユーザ行動毎に、その行動時に読み上げられた音声情報を表示する。この際、音声情報の表示粒度を、読み上げ時のユーザ操作に基づくユーザ嗜好に応じて変更することで、ユーザの情報検索を支援する。
 例えば図16の画面45に示すように、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目450、454が時系列で表示され、各項目の下に、その行動時に読み上げた情報が表示されている。
 各読み上げ情報の横には、読み上げ時のユーザ操作を示すアイコン451、457、459が表示されている。例えば、7時45分にユーザが公園を走っている際に読み上げられたイベント情報に対し、ユーザが「Bookmark」を指示する音声操作を(「Bookmark」と発話)した場合、サーバ2のタイムラインUI生成部20bは、ポジティブフィードバックが行われたと判断する。これにより、当該イベント情報はユーザが興味を示したものであるため、情報粒度「大」で表示制御される。すなわち、読み上げ情報のタイトル452と本文全文453が表示される。なお、読み上げ時はタイトルと本文1文目までが読み上げられることを前提とする。ユーザはタイトルや本文一文目を聞いて興味が湧いた場合、「Bookmark」と発話し、後から情報を確認する際に確認し易くする。また、図16に示すように、「Bookmark」の音声操作が行われたことを示す所定のアイコン451が、イベント情報と共に表示される
 また、例えばアイコン459は、「More」の音声操作が行われたことを示すものであって、この場合もPositive
Feedback操作と判断され、ニュース情報が粒度大で表示される。すなわち、例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた3つ目のニュース情報に対して「More」の音声操作が行われた場合、タイトル460と本文全文461が表示される。
 このように、Positive Feedback操作と判断されるユーザ操作は、例えば「More」、「Again」、「Bookmark」であって、これらの場合は粒度大で表示され得る。
 一方、「Skip」の音声操作は、Negative Feedback操作と判断される。この場合、情報は粒度「小」で表示される。例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた2つ目のニュース情報に対して「Skip」の音声操作が行われた場合、サーバ2のタイムラインUI生成部20bは、ネガティブフィードバックが行われたと判断し、タイトル458のみを表示する。また、「Skip」の音声操作が行われたことを示す所定のアイコン457を併せて表示する。このように、ユーザの興味が無い情報は検索対象とならないことが想定されるため、表示分量を少なくすることで、ユーザが確認したい情報の検索を支援する。
 また、音声操作が何等行われなかった場合や、音声操作が「Previous」であった場合は、嗜好判断が行われず、粒度「中」で表示制御される。例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた1つ目のニュース情報に対して何ら操作が行われなかった場合、タイトル455と本文1文目456までが表示される。
 <4-3.第3の実施例>
 次に、図17を参照して第3の実施例による画面表示例について説明する。上述した第2の実施例では、情報読み上げに対するユーザ操作に基づくユーザ嗜好に応じて情報表示の粒度を変更していたが、本実施形態はこれに限定されず、例えば情報読み上げ時のユーザ行動に基づくユーザ負荷に応じて情報表示の粒度を変更してもよい。第3の実施例では、かかるユーザ負荷に応じた情報表示の粒度変更について説明する。
 図17に示すように、画面46には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目461、462、463、464が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
 ユーザ行動に応じたユーザ負荷とは、上述したように、ユーザが音声情報を聞きにくい(音声情報に集中しにくい)状況の程度を示すものであって、例えばランニングやサイクリング中はユーザ負荷が高い(すなわち音声情報が聞きにくい)と判断される。したがって、図17に示すように、例えば7時45分にユーザが走っている際(項目461)に読み上げられたイベント情報は、ユーザが聞き逃している可能性が高いため、情報粒度「大」で表示制御される。具体的には、例えばタイトルと本文全文が表示される。これにより、走っている際に情報が読み上げられたが聞き取り難かった場合に当該読み上げ情報を後から確認する際の利便性が向上する(なお本実施例においても、読み上げ済み情報は(「More」の音声操作が行われていなければ)タイトルと本文一文目までであることを前提とする)。
 また、徒歩中は、ランニングやサイクリングに比べるとユーザ負荷は高くないと判断され、情報粒度「中」で読み上げ情報が表示制御される。例えば、図17に示すように、7時10分にユーザが歩いている際(項目462)に読み上げられたニュース情報は、多少は聞き取れている可能性が高いため、情報粒度「中」で表示制御される。具体的には、例えばタイトルと本文一文目までが表示される。
 また、電車に乗っている時は、徒歩中よりもユーザ負荷は低いと判断され、情報粒度「小」で読み上げ情報が表示制御される。例えば、図17に示すように、7時12分にユーザが電車に乗っている際(項目463)に読み上げられたニュース情報は、しっかり聞き取れている可能性が高いため、情報粒度「小」で表示制御される。具体的には、例えばタイトルのみが表示される。電車に乗っている際に読み上げられた情報はしっかりと聞き取れているため、後から再確認される可能性は低く、かかる音声情報の表示量を少なくすることで、ユーザが他の読み上げ情報を確認する際の邪魔になってしまうことを回避することができる。
 <4-4.第4の実施例>
 次に、図18を参照して第4の実施例による画面表示例について説明する。上述した第2、第3の実施例では、情報読み上げ時のユーザ操作に基づく嗜好判断結果や、情報読み上げ時のユーザ行動に基づくユーザ負荷に応じて、タイムラインUIにおける表示情報の粒度を変更する場合について説明したが、本実施形態はこれに限定されず、例えば嗜好判断結果やユーザ負荷に応じて、さらに表示情報のフォントサイズを変更してもよい。
 図18に示すように、画面47には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目471、474が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
 例えば、図18に示すように、7時45分にユーザが公園を走っている際(項目471)に読み上げられたイベント情報に対し、ユーザが「Bookmark」を指示する音声操作を(「Bookmark」と発話)した場合、サーバ2のタイムラインUI生成部20bは、ポジティブフィードバックが行われたと判断する。これにより、当該イベント情報はユーザが興味を示したものであるため、情報粒度「大」で表示制御すると共に、さらに、フォントサイズ「大」で表示する。すなわち、読み上げ情報のタイトルと本文全文を、後述するネガティブフィードバックされた音声情報や嗜好判断されなかった音声情報よりも大きいフォントサイズで表示する。また、「Bookmark」の音声操作が行われたことを示す所定のアイコン472も併せて表示される。これにより、ユーザが興味を持った音声情報を後から確認する際の利便性が向上する。
 また、7時10分にユーザが電車に乗っている際(項目474)に読み上げられたニュース情報に対し「More」を指示する音声操作が行われた場合も同様にポジティブフィードバックが行われたと判断され、読み上げ情報のタイトルと本文全文がフォントサイズ「大」で表示される。また、「More」の音声操作が行われたことを示す所定のアイコン475も併せて表示される。これにより、ユーザが興味を持った音声情報を後から確認する際の利便性が向上する。
 また、図18に示すように、7時45分にユーザが公園を走っている際(項目471)に読み上げられた2つ目のイベント情報は、何ら操作が行われず、3つ目のイベント情報は、「Skip」を指示する音声操作が行われた(アイコン473は、「Skip」操作が行われたことを意味する)場合は、いずれもフォントサイズ「小」で表示制御される。このように、ユーザが興味を持っていない音声情報は小さいサイズで表示することで、ユーザがタイムラインUIをスクロールしながら情報を探す際に邪魔になることを回避することができる。
 なお、図18に図示した例では、一例としてユーザ嗜好に応じたフォントサイズの変更について説明したが、本実施例はこれに限定されず、ユーザ行動に基づくユーザ負荷に応じてフォントサイズを変更してもよい。この場合、例えばユーザ負荷が高かった場合は大きいサイズで表示し、ユーザが負荷が低かった場合は小さいサイズで表示する。
 <4-5.第5の実施例>
 続いて、図19を参照して第5の実施例による画面表示例について説明する。本実施例では、ユーザ行動のコンテキストに応じて読み上げ情報が中断、再開された場合に、タイムラインUIにおいて、これら中断、再開の情報も併せて表示することで、ユーザが読み上げ情報を聞いた際の状況を思い出し易くさせ、情報検索の支援を行うことができる。
 図19に示すように、画面48には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目481、483、486が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。ここでは、読み上げ済みの音声情報が表示され、ユーザ行動のコンテキストに応じて読み上げを中断した場合は「paused」(表示482、表示485)、再開した場合は「continue」(表示484、表示487)と表示される。例えば情報処理装置1の読み上げ制御部10bは、ユーザ行動に基づくユーザ負荷(聞き取り易さ)を考慮して、ユーザが信号待ち等で停止している場合に情報の読み上げを行い、動き出した時は読み上げを中断して再び停止した時に再開するよう制御することが可能である。このような読み上げ制御情報(「中断」、「再開」)は、読み上げ履歴に含まれ、サーバ2へ送信される。
 そして、後から音声情報を確認する際のタイムラインUIにおいて、図19の画面48に示すように、読み上げ済み音声情報のテキストが、「中断」、「再開」等の読み上げ制御情報と併せて表示される。これによりユーザは、例えば7時10分に自転車に乗って信号待ち等で止まっている際(項目481)に読み上げられたニュース情報が途中で中断されこと、およびその続きの情報が7時15分に自転車に乗って再び信号待ち等で止まっている際(項目483)に読み上げられたことが直感的に把握できる。
 <4-6.その他>
 以上、本実施形態によるタイムラインUIについて複数の実施例を用いて具体的に説明した。なお本実施形態によるタイムラインUIは上述した実施例に限定されず、さらに次のようなものであってもよい。
 (情景ベースで構成されるタイムラインUI)
 図20は、本実施形態による他のタイムラインUIを説明する図である。図20に示すように、画面49には、「Today's Timeline」として、今日一日に情報が読み上げられた地点における情景を写した撮像画像491、492、493(例えば情報処理装置1のカメラ13により情報読み上げ時に撮像した周辺の撮像画像、若しくは予め用意された各地点の撮像画像)が、時系列で表示されている。音声情報がどこに居る時に提示されたかという記憶は残りやすいため、ユーザは、聞き逃した情報等を後から確認する際に図20の画面49のような自身が見た景色を手掛かりにして容易に目的の情報を探すことが可能となる。また、画面49に表示される撮像画像上には、その場所で読み上げられた音声情報(読み上げ済み情報)のテキストや時間、情報の種類等が表示されていてもよい。
 (タイムライン軌跡と読み上げ情報表示領域の同期)
 図21は、本実施形態による他のタイムラインUIを説明する図である。図21の左側に示すように、画面50には、「Today's Timeline」として、地図画像501にユーザ行動のライムライン軌跡(移動経路の軌跡)が表示されている。ユーザがタイムライン軌跡上の任意の地点をタップすると、当該地点で読み上げられた情報のテキスト(または画像)が読み上げ表示領域に表示される。画面50では、例えば、タップした地点で読み上げられた天気予報情報(項目502)が読み上げ表示領域(図21に示す例では地図画像501の下方)に表示される。
 次いで、ユーザがタイムライン軌跡をなぞる操作を行うと、かかる操作に同期して読み上げ表示領域に表示される読み上げ情報の項目がスクロールされ、かつ、対応する項目の中身が表示される。例えば図21の右側に示す画面51のように、タイムライン軌跡をなぞるユーザ操作に応じて読み上げ情報表示領域の画面がスクロールされ、次の項目503の中身(イベント情報)が表示される。ここでは、例えば読み上げ済みの音声情報のテキストが表示される。また、地図画像511には対応する地点の情景が表示される。
 なお、地図画像511はピンチインアウトで縮尺を変えることも可能であり、読み上げ情報表示領域も同期される。
 (キーワードの強調表示)
 図22は、本実施形態による他のタイムラインUIを説明する図である。図22に示すように、画面52には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目521、522が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
 図22に示す例では、画面52に表示されるテキストは、実際に読み上げられた音声情報(読み上げ済み情報)であって、さらに読み上げ済み情報のうち所定のキーワードが強調表示(例えばフォントサイズを大きく表示)されている。所定のキーワードは、例えば固有名詞や、タイトルに使用されている名詞等、読み上げ情報を聞いたユーザの記憶に残り易い言葉が想定される。
 このように、読み上げられた情報のキーワードを強調表示するタイムラインUIを提示することで、ユーザが情報を探す際に、キーワードを手掛かりにして探し易くなる。
  <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理装置1では、読み上げられた音声情報を確認する際の利便性を向上させることを可能とする。具体的には、情報読み上げ時の日時、位置、行動、操作、または情景に基づいた検索を可能とするUIを提供することで、ユーザが聞き逃した情報や興味を持った情報等を後から探し易くさせることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。
(2)
 前記情報粒度は、情報量であって、タイトルのみ、タイトルと本文の一部、またはタイトルと本文全部のいずれかに制御される、前記(1)に記載の情報処理装置。
(3)
 前記ユーザ操作は、スキップ指示、繰り返し指示、詳細再生指示、ブックマーク指示、または前に戻る指示を示す音声入力操作である、前記(2)に記載の情報処理装置。
(4)
 前記出力制御部は、さらに前記ユーザ操作に基づいて推定されるユーザ嗜好に応じて、前記音声情報のフォントサイズが変更された表示画面の情報を出力する、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
 前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動に基づいて推定されるユーザ負荷に応じて、前記音声情報の情報粒度が制御される、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動の認識結果、読み上げ時の日時、場所、読み上げられた情報の種類の少なくともいずれかが前記表示画面にさらに含まれる、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)
 前記表示画面で表示される読み上げ情報は、読み上げ済み情報のテキストよりも読み上げられていない部分のテキストが強調表示される、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記読み上げ履歴に含まれる各音声情報の読み上げ時におけるユーザの位置履歴に基づく移動軌跡が前記表示画面に含まれる地図画像上に表示され、さらにユーザにより指定された前記移動軌跡の任意の地点付近で読み上げられた音声情報が表示される、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記表示画面には、さらにユーザにより指定された前記移動軌跡の任意の地点付近の情景を写した撮像画像が表示される、前記(8)に記載の情報処理装置。
(10)
 プロセッサが、
 取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法。
(11)
 コンピュータを、
 取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラム。
 1 情報処理装置
 10 制御部
 10a 読み上げ情報取得部
 10b 読み上げ制御部
 10c ユーザ状況認識部
 10d 操作認識部
 10e 読み上げ履歴送信制御部
 11 通信部
 12 マイクロホン
 13 カメラ
 14 9軸センサ
 15 スピーカ
 16 位置測位部
 17 記憶部
 2 サーバ
 20 制御部
 20a  記憶制御部
 20b  タイムラインUI生成部
 20c  送信制御部20c
 21 通信部
 22 記憶部
 3 表示装置
 4 ネットワーク

Claims (11)

  1.  取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。
  2.  前記情報粒度は、情報量であって、タイトルのみ、タイトルと本文の一部、またはタイトルと本文全部のいずれかに制御される、請求項1に記載の情報処理装置。
  3.  前記ユーザ操作は、スキップ指示、繰り返し指示、詳細再生指示、ブックマーク指示、または前に戻る指示を示す音声入力操作である、請求項2に記載の情報処理装置。
  4.  前記出力制御部は、さらに前記ユーザ操作に基づいて推定されるユーザ嗜好に応じて、前記音声情報のフォントサイズが変更された表示画面の情報を出力する、請求項1に記載の情報処理装置。
  5.  前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動に基づいて推定されるユーザ負荷に応じて、前記音声情報の情報粒度が制御される、請求項1に記載の情報処理装置。
  6.  前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動の認識結果、読み上げ時の日時、場所、読み上げられた情報の種類の少なくともいずれかが前記表示画面にさらに含まれる、請求項1に記載の情報処理装置。
  7.  前記表示画面で表示される読み上げ情報は、読み上げ済み情報のテキストよりも読み上げられていない部分のテキストが強調表示される、請求項1に記載の情報処理装置。
  8.  前記読み上げ履歴に含まれる各音声情報の読み上げ時におけるユーザの位置履歴に基づく移動軌跡が前記表示画面に含まれる地図画像上に表示され、さらにユーザにより指定された前記移動軌跡の任意の地点付近で読み上げられた音声情報が表示される、請求項1に記載の情報処理装置。
  9.  前記表示画面には、さらにユーザにより指定された前記移動軌跡の任意の地点付近の情景を写した撮像画像が表示される、請求項8に記載の情報処理装置。
  10.  プロセッサが、
     取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法。
  11.  コンピュータを、
     取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラム。
PCT/JP2017/002309 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム WO2017187678A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/085,419 US11074034B2 (en) 2016-04-27 2017-01-24 Information processing apparatus, information processing method, and program
CN201780024799.XA CN109074240B (zh) 2016-04-27 2017-01-24 信息处理设备、信息处理方法和程序
JP2018514113A JP6891879B2 (ja) 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム
EP17788968.0A EP3451149A4 (en) 2016-04-27 2017-01-24 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016089227 2016-04-27
JP2016-089227 2016-04-27

Publications (1)

Publication Number Publication Date
WO2017187678A1 true WO2017187678A1 (ja) 2017-11-02

Family

ID=60161278

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/002309 WO2017187678A1 (ja) 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11074034B2 (ja)
EP (1) EP3451149A4 (ja)
JP (1) JP6891879B2 (ja)
CN (1) CN109074240B (ja)
WO (1) WO2017187678A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198299A1 (ja) * 2018-04-11 2019-10-17 ソニー株式会社 情報処理装置及び情報処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11363953B2 (en) * 2018-09-13 2022-06-21 International Business Machines Corporation Methods and systems for managing medical anomalies

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005634A (ja) * 1999-06-24 2001-01-12 Hitachi Ltd 電子メール受信装置
JP2010026813A (ja) * 2008-07-18 2010-02-04 Sharp Corp コンテンツ表示装置、コンテンツ表示方法、プログラム、記録媒体、および、コンテンツ配信システム
JP2015169768A (ja) * 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7020663B2 (en) * 2001-05-30 2006-03-28 George M. Hay System and method for the delivery of electronic books
JP2006023860A (ja) * 2004-07-06 2006-01-26 Sharp Corp 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム
JP5250827B2 (ja) * 2008-09-19 2013-07-31 株式会社日立製作所 行動履歴の生成方法及び行動履歴の生成システム
WO2010105246A2 (en) * 2009-03-12 2010-09-16 Exbiblio B.V. Accessing resources based on capturing information from a rendered document
JP2012063526A (ja) * 2010-09-15 2012-03-29 Ntt Docomo Inc 端末装置、音声認識方法および音声認識プログラム
US10672399B2 (en) * 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
JP5821307B2 (ja) 2011-06-13 2015-11-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN102324191B (zh) * 2011-09-28 2015-01-07 Tcl集团股份有限公司 一种有声读物逐字同步显示方法及系统
KR101309794B1 (ko) * 2012-06-27 2013-09-23 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
CN103198726A (zh) * 2013-04-23 2013-07-10 李华 英语学习设备
CN103365988A (zh) * 2013-07-05 2013-10-23 百度在线网络技术(北京)有限公司 对移动终端的图片文字朗读的方法、装置和移动终端
GB2518002B (en) * 2013-09-10 2017-03-29 Jaguar Land Rover Ltd Vehicle interface system
US20150120648A1 (en) * 2013-10-26 2015-04-30 Zoom International S.R.O Context-aware augmented media
US9794511B1 (en) * 2014-08-06 2017-10-17 Amazon Technologies, Inc. Automatically staged video conversations
CN107193841B (zh) * 2016-03-15 2022-07-26 北京三星通信技术研究有限公司 媒体文件加速播放、传输及存储的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005634A (ja) * 1999-06-24 2001-01-12 Hitachi Ltd 電子メール受信装置
JP2010026813A (ja) * 2008-07-18 2010-02-04 Sharp Corp コンテンツ表示装置、コンテンツ表示方法、プログラム、記録媒体、および、コンテンツ配信システム
JP2015169768A (ja) * 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3451149A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198299A1 (ja) * 2018-04-11 2019-10-17 ソニー株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
US11074034B2 (en) 2021-07-27
EP3451149A4 (en) 2019-04-17
CN109074240B (zh) 2021-11-23
EP3451149A1 (en) 2019-03-06
CN109074240A (zh) 2018-12-21
JPWO2017187678A1 (ja) 2019-02-28
JP6891879B2 (ja) 2021-06-18
US20190073183A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
US9860204B2 (en) Variable notification alerts
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
CN110377365B (zh) 展示小程序的方法和装置
EP3709607B1 (en) Device and method for adaptively changing task-performing subjects
US10416948B2 (en) Head mount display and method for controlling output of the same
CN109151044B (zh) 信息推送方法、装置、电子设备及存储介质
US11057728B2 (en) Information processing apparatus, information processing method, and program
WO2017175432A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20160133414A (ko) 정보 처리 장치, 제어 방법 및 프로그램
CN112764608A (zh) 消息处理方法、装置、设备及存储介质
WO2016002306A1 (ja) 情報処理システム、情報処理端末、および情報処理方法
EP3086221A2 (en) Electronic apparatus, image display system, control program, and method for operating electronic apparatus
JP6891879B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9495017B2 (en) Computing systems for peripheral control
CN114666433A (zh) 一种终端设备中啸叫处理方法及装置、终端
KR101685361B1 (ko) 휴대 단말기 및 그 동작 방법
CN113301444B (zh) 视频处理方法、装置、电子设备及存储介质
CN113256440A (zh) 虚拟自习室的信息处理方法、装置及存储介质
JP6559096B2 (ja) 情報出力システム及び情報出力方法
JP2019193121A (ja) 電子機器及び処理システム
CN110875042B (zh) 指定人群监控方法、装置和存储介质
KR20170025020A (ko) 이동단말기 및 그 제어방법
JP6206537B2 (ja) 携帯端末、情報処理装置、およびプログラム
US20220058225A1 (en) Information display method and apparatus
CN117519854A (zh) 显示方法及电子设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018514113

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017788968

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17788968

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017788968

Country of ref document: EP

Effective date: 20181127