WO2009116317A1 - 情報提示装置 - Google Patents

情報提示装置 Download PDF

Info

Publication number
WO2009116317A1
WO2009116317A1 PCT/JP2009/051132 JP2009051132W WO2009116317A1 WO 2009116317 A1 WO2009116317 A1 WO 2009116317A1 JP 2009051132 W JP2009051132 W JP 2009051132W WO 2009116317 A1 WO2009116317 A1 WO 2009116317A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
presentation
content
user
time
Prior art date
Application number
PCT/JP2009/051132
Other languages
English (en)
French (fr)
Inventor
純 宮澤
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2009116317A1 publication Critical patent/WO2009116317A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation

Definitions

  • This disclosure relates to an information presentation apparatus that presents a history of content that a user has used in the past to the user.
  • Patent Document 1 The document search result display method and document search / display apparatus described in Patent Document 1 cannot search for a desired web page if the user forgets the display route and display time when the desired web page is displayed. In addition, even when the user has stored the display route and the display time, it is necessary to individually browse the linked web pages and confirm whether or not the web page is a desired web page. For this reason, the operation
  • This disclosure is intended to provide an information presentation device that allows a user to easily select desired content from content used in the past.
  • an information presentation apparatus including detection information creation means, interest level calculation means, usage history creation means, presentation information creation means, and presentation means.
  • the detection information creating means performs a predetermined operation on the content presenting means and a movement of the predetermined part of the user during a presentation time which is a time when the content is presented to the content presenting means for presenting the content to the user.
  • Detection information which is information indicating at least one is created.
  • the interest level calculation means calculates the interest level of the user for the content during the presentation time based on the detection information created by the detection information creation means.
  • the usage history creation means creates a usage history by associating the interest level calculated by the interest level calculation means with content information that is information related to the content used by the user, and It is stored in a usage history storage means for storing a usage history.
  • the presentation information creation means edits the usage history of the plurality of contents stored in the usage history storage means based on the degree of interest, and creates presentation information that is information including the content information and the degree of interest. .
  • the presenting means presents the presenting information created by the presenting information creating means to the user.
  • FIG. 1 is a schematic diagram illustrating an external appearance of an information presentation system 1.
  • FIG. 1 is a block diagram of an information presentation system 1.
  • FIG. It is explanatory drawing of the measuring object of the pyroelectric sensor 12 and the infrared sensor 13.
  • FIG. It is a flowchart of the main process of PC30.
  • It is a flowchart of the interest level calculation process performed in the main process shown in FIG. 4 is a graph illustrating output values of a pyroelectric sensor 12 and an infrared sensor 13. It is a table that defines the relationship between the ratio of the stationary time to the presentation time and the degree of interest.
  • FIG. 6 It is a table that defines the relationship between the ratio of the operation time to the presentation time and the interest level. It is a flowchart of the interest level calculation process of 6th Embodiment. It is a flowchart of the interest level calculation process of 7th Embodiment. It is a flowchart of the weight setting process performed in the interest level calculation process of FIG. 6 is an explanatory diagram illustrating an example of a screen presented on the output device 50. FIG. It is explanatory drawing of an example of the screen which inputs edit conditions. It is explanatory drawing of an example of the screen shown to a user. It is a flowchart of the interest level calculation process of a modification.
  • the information presentation system 1 includes a sensor unit 10, a personal computer (hereinafter referred to as a PC) 30, an output device 50, and an input device 60.
  • a PC personal computer
  • the electrical configuration of each component will be described in detail with reference to FIG.
  • the PC 30 is a so-called general-purpose personal computer.
  • the PC 30 includes a CPU 31, a ROM 32, a RAM 33, I / O interfaces (hereinafter referred to as I / F) 34 to 38, and a hard disk device (hereinafter referred to as HDD) 39.
  • the ROM 32, RAM 33, I / Fs 34 to 38, and HDD 39 are connected to the CPU 31 via a bus.
  • the input device 60 includes, for example, a so-called keyboard and mouse, and is connected to the CPU 31 via the I / F 34.
  • the output device 50 is a display device such as a liquid crystal display, for example, and is connected to the CPU 31 via the I / F 35.
  • the PC 30 can be connected to the network 4 such as the Internet via the I / F 36.
  • the PC 30 outputs content stored in the PC 30 or content acquired via the network 4 to the output device 50 in accordance with an instruction input using the input device 60.
  • the output device 50 is a display device, the content is presented to the user by displaying the content on the screen.
  • the sensor unit 10 includes a sensor that detects a predetermined movement of the user during a usage period in which the PC 30 presents content to the user.
  • the sensor unit 10 includes a pyroelectric sensor 12, an infrared sensor 13, and a camera 22 as sensors.
  • the pyroelectric sensor 12 is a pyroelectric infrared sensor and detects a change in the infrared ray 61 emitted from the user 3.
  • the infrared sensor 13 emits infrared rays 62 and detects infrared rays 63 reflected by the user 3 among the irradiated infrared rays 62.
  • Output data from the pyroelectric sensor 12 and the infrared sensor 13 is input to the PC 30 via the I / F 11.
  • the PC 30 based on output data from the pyroelectric sensor 12 and the infrared sensor 13, it is determined whether or not the user's body moves and whether or not the user is in a predetermined range around the PC 30.
  • the camera 22 is used to photograph the user's body, particularly around the user's eyes.
  • User image data captured by the camera 22 is input to the PC 30 via the I / F 21.
  • the input image data is analyzed in the PC 30 using a known image analysis program, and the movement of the user's line of sight is determined based on the analysis result.
  • a process of automatically creating the degree of interest of the user with respect to the content being used is executed during the time when the content is presented to the user (hereinafter referred to as presentation time).
  • presentation time the time when the content is presented to the user.
  • the created degree of interest is used when the user selects desired content from the content used by the user in the past.
  • the CPU 31 executes an initialization process (S5). Specifically, the CPU 31 clears all parameters stored in the RAM 33, for example. Subsequently, it is determined whether or not the content is to be started (S10). Specifically, when the user operates the input device 60 and inputs an instruction to use the content, the CPU 31 determines to start the content. The process when the content is not started (S10: No) will be described later. When the content is started (S10: Yes), the CPU 31 executes an interest level calculation process (S15).
  • the interest level calculation process will be described with reference to FIG. 5, in the interest level calculation process, first, the CPU 31 starts measuring the presentation time (S105).
  • the presentation time is updated every predetermined time (for example, every 1 sec) by a program executed separately from the interest level calculation process, and stored in the RAM 33.
  • step S ⁇ b> 105 the CPU 31 activates the pyroelectric sensor 12, the infrared sensor 13, and the camera 22 included in the sensor unit 10.
  • the CPU 31 determines whether or not a user has been detected based on the output data of the infrared sensor 13 (S110). Taking the output data shown in FIG. 6 as an example, the process of step S110 will be described.
  • a graph 101 on the upper side of the drawing shows the relationship between the output value of the infrared sensor and the presentation time (t).
  • the output values in the period t1 and the period t2 indicate output values when the infrared ray 63 reflected by the user is detected, and the output value in the period t3 indicates the infrared ray 63 (reflected by the user).
  • the output value when not detecting (refer FIG. 3) is shown.
  • step S115 will be described using the output data shown in FIG. 6 as an example.
  • a graph 102 on the lower side of FIG. 6 shows the relationship between the output value of the pyroelectric sensor and the presentation time (t).
  • the output value during the period t2 indicates an output value when a change in the infrared ray 61 (see FIG. 3) is detected, that is, when the user moves.
  • the output values of the period t1 and the period t3 are output when the fluctuation of the infrared ray 61 (see FIG. 3) is not detected, that is, when the user is not moving or when there is no user. Indicates the value.
  • the CPU 31 sets a stationary time indicating a time during which the user is stationary. The time is increased for a predetermined time and stored in the RAM 33 (S120). The predetermined time may be determined according to the execution frequency of step S115.
  • the CPU 31 performs the process of step S125. For example, when the output value of the period t2 is detected (S115: Yes), the CPU 31 determines whether to end the content (S125). Specifically, when the user operates the input device 60 and inputs an instruction to end the content, it is determined that the content is to be ended. If the content is not terminated (S125: No), the CPU 31 returns to step S110 and repeats the above-described processing. When the content is to be ended (S125: Yes), the CPU 31 stops measuring the presentation time (S130). Further, the CPU 31 stops the operations of the pyroelectric sensor 12, the infrared sensor 13, and the camera 22 included in the sensor unit 10.
  • the CPU 31 acquires the stationary time and the presentation time stored in the RAM 33 (S135). Subsequently, the CPU 31 obtains the interest level based on the ratio of the acquired stationary time to the presentation time, and stores the interest degree in the RAM 33 (S140). Specifically, the CPU 31 determines the degree of interest by comparing the table illustrated in FIG. 7 with the ratio of the stationary time acquired in step S135 to the presentation time. For example, when the ratio of the stationary time to the presentation time is 25%, the interest level is calculated as 30% based on the table shown in FIG.
  • the CPU 31 refers to the RAM 33 and the HDD 39, calculates the accumulated time, and stores it in the RAM 33 (S145).
  • the accumulated time is a time obtained by accumulating the presentation time for each content.
  • the CPU 31 refers to the usage history 120 (see FIG. 8) stored in the HDD 39, and accumulates the presentation time when the used content has been used in the past. Subsequently, the CPU 31 ends the interest level calculation process and returns to the main process shown in FIG.
  • the main process of the PC 30 will be described with reference to FIG. CPU31 judges whether presentation time is more than a lower limit and below an upper limit (S20).
  • the presentation time is calculated in step S130 of the interest level calculation process in FIG. 5 and stored in the RAM 33.
  • the lower limit value and the upper limit value may be determined according to the amount of information included in the content. Examples of the amount of information included in the content include the number of characters, file capacity, and playback time.
  • Step S20 it is determined whether or not the presentation time is equal to or greater than the lower limit value in order to determine whether or not the content has been presented for a sufficient time to calculate the interest level of the content.
  • step S20 it is determined whether or not the presentation time is equal to or less than the upper limit value in order to determine whether or not the content has been used appropriately.
  • Specific examples of the case where the content is not properly used include, for example, a case where the user is in the middle of the presentation time, and a case where the user performs an operation other than the use of the content.
  • the CPU 31 When the presentation time is smaller than the lower limit value or larger than the upper limit value (S20: No), the CPU 31 does not store the interest level calculated in step S15 in the usage history 120 (see FIG. 8), but in step S30 described later. Execute the process.
  • the usage history 120 illustrated in FIG. 8 is updated (S25). Specifically, the CPU 31 adds the interest level calculated in step S15 and information about the used content (hereinafter referred to as content information) to the usage history 120 and stores it in the HDD 39 (S25).
  • the date and time 121 when the content was used and the content information are stored in the usage history 120.
  • the stored content information includes an address 122, a title 123, and contents 124. Further, the presentation time 125, the interest level 126, and the accumulated time 127 obtained in the interest level calculation process shown in FIG. 5 are stored in the usage history 120 in association with the content information.
  • the CPU 31 determines whether or not a presentation command has been input (S30). Specifically, when the user operates the input device 60 and inputs an instruction to present presentation information, the CPU 31 determines that a presentation command has been input.
  • the presentation information is information created by editing the usage history 120 based on the interest level of the content.
  • CPU31 returns to step S5 and repeats a process.
  • the CPU 31 edits the usage history 120 based on the degree of interest 126 and creates presentation information (S35).
  • the CPU 31 creates presentation information by sorting information included in the usage history 120 in descending order of interest 126. When there are a plurality of contents with the same interest level 126, for example, the presentation information may be created by sorting the contents with the same interest level 126 in descending order of the accumulated time 127.
  • the CPU 31 presents the presentation information edited in step S35 to the user (S40). Specifically, the CPU 31 outputs the presentation information to the output device 50 as illustrated in the screen 130 of FIG. In each item shown on the screen 130, a link to the storage location of the content indicated by the address is inserted. Therefore, when the user finds a desired content from the presentation information displayed on the screen 130, the user can easily access the content by using the link inserted in each item. After outputting the presentation information, the CPU 31 returns to step S5 and repeats the process. As described above, the CPU 31 executes the main process.
  • the degree of interest of the user with respect to the content is automatically estimated and created based on the detection information detected and created during the presentation time when the content is presented to the user. . Specifically, based on the detection result of the movement of the user's body indicated by the output values from the pyroelectric sensor 12 and the infrared sensor 13 during the presentation time, the stationary time indicating the time when the user is stationary is calculated. The degree of interest is calculated as detection information. Generally, in the type of content to be browsed, the user tends to be stationary during the period when the user is interested in the content. For this reason, if the stationary time is used, the degree of interest can be accurately obtained. Examples of the type of content to be browsed include text files, spreadsheet files, television programs, moving images such as movies, and web pages.
  • the user when calculating the degree of interest, the user does not need to perform complicated operations such as registering the content of interest in the history or inputting an evaluation for the content.
  • the user when a user wants to find out content that the user is interested in from the content used in the past, the user can easily find the desired content while referring to the degree of interest included in the presentation information. be able to.
  • unnecessary content can be organized (deleted, moved, etc.) using the degree of interest included in the presentation information.
  • FIG. 10 the same step numbers are assigned to steps where the same processing as the main processing of the first embodiment shown in FIG. 4 is performed.
  • the main process of the PC 30 of the second embodiment is different from the main process of the first embodiment shown in FIG. 4 in steps S16, S26, S36, and S41. Therefore, description of the same processing as that of the first embodiment is omitted, and first, the interest level calculation processing of the second embodiment executed in step S16 will be described with reference to FIGS.
  • processing performed in steps S26, S36, and S41 of FIG. 10 will be described with reference to FIGS.
  • FIGS. 10 and 11 a program for executing each process shown in FIGS. 10 and 11 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • the same step numbers are assigned to steps in which processing similar to the interest level calculation processing of the first embodiment shown in FIG. 5 is performed.
  • the interest level calculation process of the first embodiment shown in FIG. 5 is the same as the interest level calculation process of step S106, S126, S131, and S132. Different. A description of processes similar to those in the first embodiment will be omitted, and the processes performed in steps S106, S126, S131, and S132, which are different from those in the first embodiment, will be described in order below.
  • step S106 the CPU 31 acquires the distance between the user and the infrared sensor 13 at the start of content presentation from the output value of the infrared sensor 13, and stores it in the RAM 33 (S106).
  • the process of step S106 is a process for evaluating a change in the posture of the user at the start of content presentation and at the end of content presentation, based on the distance between the user and the infrared sensor 13 at the start of content presentation. is there.
  • step S126 the CPU 31 acquires the distance between the user and the infrared sensor 13 at the end of content presentation from the output value of the infrared sensor 13, and stores it in the RAM 33 (S126).
  • step S131 the CPU 31 determines whether or not the end distance acquired in step S126 is smaller than the start distance acquired in step S106 (S131).
  • a change in the posture of the user is determined based on a change in the distance between the infrared sensor 13 and the user. For example, as shown in FIG. 12, it is assumed that the posture of the user 3 is changed from the posture indicated by the broken line to the posture indicated by the solid line. In this case, as shown in FIG. 13, the output value of the infrared sensor 13 is output from the output value of the period indicated by the period t4 to the output of the period indicated by the period t5 according to the distance between the infrared sensor 13 and the user. Changes to a value.
  • the distance between the PC 30 and the user tends to be smaller when the presentation of the content is finished than when the presentation of the content is started. That is, the end distance acquired in step S126 is smaller than the start distance acquired in step S106 (S131: Yes).
  • the CPU 31 sets 1 to the weight and stores it in the RAM 33 (S132).
  • the weight indicating the importance of the content is assigned as 0 or 1, and the initial value of the weight is 0.
  • the content with the weight set to 1 indicates that the content is more important to the user than the content with the weight set to 0.
  • step S126 When the distance at the end acquired in step S126 is not smaller than the distance at the start acquired in step S106 (S131: NO), or following step S132, the CPU 31 performs the first embodiment.
  • step S135 Similar to is executed.
  • the CPU 31 executes the interest level calculation process according to the second embodiment.
  • step S26 the CPU 31 updates the usage history 180 illustrated in FIG. 14 (S26). Specifically, the CPU 31 adds the interest level and weight calculated in step S16 of FIG. 10 and the content information of the used content to the usage history 180 and stores them in the HDD 39 (S26).
  • the information included in the usage history 180 of FIG. 14 includes a weight 128 in addition to the information included in the usage history 120 (see FIG. 8) of the first embodiment.
  • the CPU 31 edits the usage history 180 based on the degree of interest 126 and the weight 128 to create presentation information (S36).
  • the CPU 31 first sorts information included in the usage history 180 in descending order of interest 126.
  • the presentation information is created by sorting the contents with the same interest level 126 in descending order of the weight 128.
  • the CPU 31 presents the presentation information created in step S36 to the user (S41). Specifically, the CPU 31 outputs the presentation information edited in step S36 to the output device 50 as illustrated in the screen 190 of FIG. Subsequently, the CPU 31 returns to step S5 and repeats the process. As described above, the CPU 31 executes the main process of the second embodiment.
  • the presentation information is created based on the weight in addition to the content information and the degree of interest.
  • the user can easily find the desired content by creating the presentation information with reference to the weight as the third element.
  • the weight included in the presentation information is automatically created based on the detection information (posture information in the present embodiment) detected and created during the presentation time when the content is presented to the user. Therefore, the user can easily obtain the presentation information including the importance level without performing a complicated operation for inputting the importance level of the content.
  • the weight is obtained based on posture information that is information indicating a change in the posture of the user at the start and end of content presentation.
  • posture information is information indicating a change in the posture of the user at the start and end of content presentation.
  • the distance between the user and the PC 30 tends to be closer when the presentation of the content ends than when the presentation of the content starts. For this reason, if posture information is used, a weight can be obtained accurately.
  • the main process of the PC 30 of the third embodiment is different from the main process of the first embodiment shown in FIG. 4 in the interest level calculation process of step S15. Therefore, description of processing similar to that of the first embodiment is omitted, and interest level calculation processing of the third embodiment that is different from the first embodiment will be described with reference to FIGS. 16 to 19.
  • 16 and 17 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • the same step number is assigned to a step that performs the same process as the interest level calculation process of the first embodiment shown in FIG. 5.
  • the interest level calculation process of the first embodiment shown in FIG. 5 is the same as the interest level calculation process of steps S111, S136, and S141. Different. The description of the processes similar to those in the first embodiment will be omitted, and the processes performed in steps S111, S136, and S141, which are different from those in the first embodiment, will be described in order below.
  • step S111 the CPU 31 executes a line-of-sight detection process (S111). Details of the eye-gaze detection process will be described with reference to FIG. As shown in FIG. 17, in the eye-gaze detection process, first, the CPU 31 determines whether or not the presented content is a moving image (S205). Whether or not the content is a moving image can be determined by referring to information accompanying the content, for example. Further, for example, the determination can be made based on the type of software being used for presenting the content. The processing when the content is not a moving image (S205: No) will be described later. When the content is a moving image (S205: Yes), the CPU 31 determines whether or not the user's eyes are moving (S210).
  • image data obtained by photographing a user's face using the camera 22 is analyzed using a known program that is executed separately from the eye-gaze detection process shown in FIG.
  • the CPU 31 determines whether or not the user's eyes are moving based on the analysis result.
  • the CPU 31 increases the gaze time by a predetermined time and stores it in the RAM 33 (S215).
  • the gaze time is a time reflecting the time when the user concentrates and uses the content.
  • the predetermined time may be determined according to the execution frequency of the eye-gaze detection process.
  • the gaze time is counted for the following reason. This is because, when the content is a moving image, generally, when the user concentrates and uses the content, the user tends to look closely at the screen and the line of sight does not move.
  • the CPU 31 returns to the interest level calculation process shown in FIG.
  • the CPU 31 determines whether or not the user's line of sight traces the text (S220).
  • S220 A state where “the user's eyes are tracing a sentence” will be described with reference to FIG. 18 as an example.
  • the CPU 31 determines that the user's eye is moving when reading the text included in the content based on the analysis result of the image data described above, the “user's eye traces the text. It is judged.
  • the CPU 31 increases the gaze time by a predetermined time and stores it in the RAM 33 (S215).
  • the predetermined time may be determined according to the execution frequency of the eye-gaze detection process. Counting the gaze time when the user's eyes are tracing the text is as follows.
  • content is text
  • the CPU 31 returns to the interest level calculation process shown in FIG.
  • step S136 of FIG. 16 the CPU 31 refers to the RAM 33 and acquires the gaze time and the presentation time (S136). Then, CPU31 calculates
  • the detection information includes the gaze time obtained based on the detection result of the eye movement of the user during the usage period.
  • content includes text
  • the user's eyes tend to follow the text while the user is interested in the content. Examples of the type of content that follows a sentence include a sentence file, a spreadsheet file, and a web page.
  • the content is a moving image
  • the user's eyes tend to move while paying attention to a predetermined range during the period when the user is interested in the content. For this reason, if a gaze time is used, an interest level can be calculated
  • the user when creating the degree of interest, the user does not need to perform a complicated operation of registering the content with interest in the history or inputting an evaluation for the content. Further, the user can easily search for desired content while referring to the presentation information when the user wants to find out the content that the user is interested in from the content used in the past.
  • the main processing of the PC 30 of the fourth embodiment is different from the main processing of the first embodiment shown in FIG. 4 in the interest level calculation processing in step S15. Therefore, the description of the processing similar to that of the first embodiment is omitted, and the interest level calculation processing of the fourth embodiment different from the first embodiment will be described with reference to FIG.
  • a program for executing each process shown in FIG. 20 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • the same step number is assigned to a step that performs the same process as the interest level calculation process of the first embodiment shown in FIG. 5 or the interest level calculation process of the third embodiment shown in FIG. 16. Has been granted.
  • step S121 is executed instead of step S120, and steps S136 and S141 are executed.
  • the first embodiment shown in FIG. This is different from the form interest level calculation process.
  • the process of step S121 is the same as the eye line detection process of step S111 of the interest level calculation process of the third embodiment shown in FIG. 16, and the processes of steps S136 and S141 are the interest level calculation of the third embodiment. This is the same as steps S136 and S141 of the process. Therefore, description of the processing of these steps is omitted.
  • the CPU 31 when the user is not moving (S115: No), the CPU 31 performs a line-of-sight detection process similar to that in the third embodiment (S121).
  • the degree of interest is created by using the gaze time when the condition that the user does not move the body is satisfied.
  • the gaze time when the condition where the user does not move the body is used is used, the degree of interest can be obtained more accurately.
  • the main process of the PC 30 of the fifth embodiment is different from the main process of the first embodiment shown in FIG. 4 in the interest level calculation process of step S15. Therefore, description of processing similar to that of the first embodiment is omitted, and interest level calculation processing of the fifth embodiment different from the first embodiment will be described with reference to FIGS. 21 and 22 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • FIG. 21 the same step number is assigned to a step in which processing similar to the interest level calculation processing of the first embodiment shown in FIG. 5 is performed.
  • the interest level calculation process of the fifth embodiment differs from the interest level calculation process of the first embodiment shown in FIG. 5 in that steps S112, S137, and S142 are executed.
  • steps S112, S137, and S142 are executed.
  • a description of processes similar to those in the first embodiment will be omitted, and the processes in steps S112, S137, and S142, which are different from those in the first embodiment, will be described in order below.
  • step S112 the CPU 31 executes a pointer detection process (S112). Details of the pointer detection processing will be described with reference to FIG. As shown in FIG. 22, in the pointer detection process, first, the CPU 31 determines whether or not the presented content is a moving image (S305). The method for determining whether or not the content is a moving image is the same as in step S205 of the eye-gaze detection process shown in FIG. The processing when the content is not a moving image (S305: No) will be described later. When the content is a moving image (S305: Yes), the CPU 31 determines whether or not the pointer is moving (S310).
  • the pointer refers to a cursor or a pointer (arrow) displayed on the output device 50 and is moved when the user operates the input device 60. Whether or not the pointer is moving can be determined based on whether or not an instruction for moving the pointer is input from the input device 60, for example.
  • the CPU 31 increases the operation time by a predetermined time and stores it in the RAM 33 (S315).
  • the operation time is a time reflecting the time when the user concentrates and uses the content.
  • the predetermined time may be determined according to the execution frequency of the pointer detection process.
  • the operation time is counted when the pointer is not moving for the following reason. As shown in FIG. 23, when the content is a moving image, the pointer 71 is used to instruct to stop, play, fast forward, rewind, etc. the content. This is because, generally, when a user concentrates and uses content, the user tends not to input an instruction to move the pointer 71.
  • the CPU 31 returns to the interest level calculation process shown in FIG.
  • the CPU 31 determines whether or not the text is highlighted (S220).
  • the state where “text is highlighted” will be described with reference to FIG. “The sentence is highlighted” means that the pointer 72 is moved in the direction of the arrow 66, for example, and a part 73 of the character string included in the content is highlighted as shown in FIG. Say.
  • the CPU 31 can determine whether or not a sentence is highlighted based on an instruction input from the input device 60. Further, for example, the CPU 31 may determine whether or not the text is highlighted based on the analysis result of the image data presented on the output device 50 by a known program that is separately executed.
  • the CPU 31 increases the operation time by a predetermined time and stores it in the RAM 33 (S325).
  • the predetermined time may be determined according to the execution frequency of the pointer detection process.
  • the operation time is counted when the sentence is highlighted for the following reason. This is because when the content is a sentence, generally, when the user is interested in the content, the user tends to highlight a particularly interesting part of the sentence.
  • the CPU 31 returns to the interest level calculation process shown in FIG.
  • step S137 of FIG. 21 the CPU 31 refers to the RAM 33 and acquires the operation time and the presentation time (S137). Then, CPU31 calculates
  • the detection information includes an operation time based on the presence or absence of an operation on the pointer presented to the output device 50 during the use period.
  • the content includes text
  • the user tends to highlight part or all of the text by operating the pointer during a period when the user is interested in the content.
  • the pointer tends not to be operated during a period when the user is interested in the content. For this reason, if the operation time calculated
  • FIG. 26 A program for executing each process shown in FIG. 26 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • the same step numbers are used for steps in which the interest level calculation process of the first embodiment shown in FIG. 5 or the same process as the interest level calculation process of the fifth embodiment shown in FIG. Is granted.
  • step S122 is executed instead of step S120, and steps S137 and S142 are executed.
  • the first embodiment shown in FIG. This is different from the form interest level calculation process.
  • the process of step S122 is the same as the process of step S112 of the interest level calculation process of the fifth embodiment shown in FIG. 21, and the processes of steps S137 and S142 are the same as the process of the interest level calculation process of the fifth embodiment. This is the same as steps S137 and S142. Therefore, the description is omitted.
  • the CPU 31 when the user is not moving (S115: No), the CPU 31 performs a pointer detection process (S122) similar to that of the fifth embodiment.
  • the interest level is created using the operation time when the condition that the user does not move the body is satisfied.
  • filling the conditions which the user does not move the body is used, an interest level can be calculated
  • FIGS. 27 and 28 A program for executing each process shown in FIGS. 27 and 28 is stored in the ROM 32 (see FIG. 2), and is executed by the CPU 31 (see FIG. 2).
  • FIG. 27 the same step number is assigned to a step in which processing similar to the interest level calculation processing of the first embodiment shown in FIG. 5 is performed.
  • the interest level calculation process of the seventh embodiment differs from the interest level calculation process of the first embodiment shown in FIG. 5 in that step S124 is executed. Therefore, description of the same processing as that of the first embodiment is omitted, and step S124 different from that of the first embodiment will be described.
  • the CPU 31 detects the current position of the scroll bar 85 and stores it in the RAM 33 (S400).
  • the position of the scroll bar 85 is acquired by a known method.
  • the CPU 31 refers to the RAM 33 and determines whether or not ON is set in the weight flag (S405).
  • the weight flag is a flag for determining whether or not the scroll bar 85 has been moved to the lower limit, and is stored in the RAM 33.
  • the initial value of the weight flag is OFF, and is set to ON in step S425 described later.
  • the process when the weight flag is not ON (S405: No) will be described later.
  • the CPU 31 determines whether or not the scroll bar 85 has moved upward (in the direction indicated by the arrow 86 in FIG. 29) (S410). Whether or not the scroll bar 85 has been moved upward is determined by comparing the current position of the scroll bar 85 detected in step S400 with the previous position of the scroll bar 85 detected in step S400 at the previous execution. Judgment can be made.
  • the CPU 31 sets the weight to 1 and stores it in the RAM 33.
  • the weight indicating the importance of the content is assigned as 0 or 1, and the initial value of the weight is 0.
  • the content with the weight set to 1 indicates that the content is more important to the user than the content with the weight set to 0.
  • the weight is set to 1 for the following reason.
  • the scroll bar 85 is once moved to the lower limit (S405: Yes)
  • the scroll bar 85 is moved upward (S410: Yes)
  • the weight is set to 1. Yes. If the scroll bar 85 has not been moved upward (S410: No), or following step S415, the CPU 31 returns to the interest level calculation process shown in FIG. 27 and repeats the process.
  • the CPU 31 determines whether or not the position of the scroll bar 85 acquired in step S400 is the lower limit (S420). When the scroll bar 85 has been moved to the lower limit (S420: Yes), the CPU 31 sets the weight flag to ON and stores it in the RAM 33 (S425). When the scroll bar 85 has not been moved to the lower limit (S420: No), or after step S425, the process returns to the interest level calculation process shown in FIG. 27 and is repeated. As described above, the CPU 31 executes the interest level calculation process of the seventh embodiment.
  • the presentation information is obtained based on operation information based on an operation in which the scroll bar of the screen presented on the output device 50 is moved from the end side to the start side.
  • Weights included In general, in the case of content of a type in which a scroll bar on the screen is displayed, the content once viewed may be reconfirmed for content that is highly important to the user. In such a case, an operation is performed in which the scroll bar of the screen presented on the output device 50 is moved from the end side to the start side. For this reason, if the operation information of the scroll bar detected in the weight setting process of the seventh embodiment is used, the importance can be accurately obtained.
  • the sensor unit 10 of the information presentation system 1 includes the pyroelectric sensor 12, the infrared sensor 13, and the camera 22, but the sensor included in the sensor unit 10 can be changed as appropriate according to the detection information. More specifically, in the first, second, and fifth to seventh embodiments, the sensor unit 10 may not include the camera 22. In the third embodiment, the sensor unit 10 may not include the pyroelectric sensor 12 and the infrared sensor 13.
  • the storage device provided in the PC 30 may be appropriately combined with other storage devices such as a flash memory and an EEPROM in addition to the ROM 32, the RAM 33, and the HDD 39 illustrated in FIG.
  • the program for executing the main processing of the PC 30 may be a program stored in an external storage device such as a memory card or a CD-ROM. In this case, the PC 30 may be provided with a connector for connecting to the external storage device.
  • the content used by the user is not limited to the video and text file exemplified in the above embodiment.
  • Examples of content to be used include web pages, emails, moving images (television programs, movies, etc.), text files, and spreadsheet files.
  • the usage history only needs to include at least the degree of interest and the content information, and does not need to include all the information exemplified in the above embodiment.
  • a part of the usage date / time 121, the address 122, the title 123, and the content 124 included in the usage history 120 may be used as the content information.
  • Information other than the content information included in the usage history 120 may be used as the content information.
  • the content information may include one information selected from the content ID, the content creator, the content creation time, and the amount of information included in the content, or a plurality of information.
  • the detection information used for calculating the degree of interest is not limited to the information used in the above embodiment, and information that can be detected by various sensors can be used as appropriate.
  • the number of predetermined movements of the user may be used as detection information.
  • the predetermined movement of the user there is an operation in which the user nods and yawns.
  • the degree of interest is calculated based on the number of times the user nodded during the use period, the degree of interest can be accurately obtained.
  • the user may perform an operation of yawning during the use period.
  • the interest level is calculated based on the number of times the user yawns during the usage period, the interest level can be accurately obtained.
  • the user may be photographed with a camera and the image data may be analyzed by a known method.
  • the degree of interest represented by 0 to 100% is calculated based on the detection information, but the method of expressing the degree of interest is not limited to this method.
  • the degree of interest may be expressed in 1 to 5 levels.
  • the interest level is calculated by comparing the detection information with a predetermined table, but the interest level calculation method is not limited to this method.
  • the degree of interest is obtained using the presentation time and the stationary time as the detection information
  • the ratio of the stationary time to the presentation time is compared with the table shown in FIG.
  • the interest level may be obtained by substituting the stationary time and the presentation time into a predetermined equation. The same applies to the case where the interest level is obtained using the presentation time and the gaze time or the operation time as the detection information.
  • the detection information used for calculating the degree of interest and the calculation method may be changed according to the type of content.
  • the detection information used for calculating the importance is not limited to the information exemplified in the above embodiment.
  • the accumulated time may be employed. It is assumed that content having high importance for the user is repeatedly used and the accumulated time increases. For this reason, if the accumulated time is used, the importance can be accurately obtained.
  • the number of uses may be used as detection information used for calculating the importance. It is assumed that content with high importance for the user is repeatedly used and the number of times of use increases. For this reason, if the number of times of use is used, the importance can be accurately obtained.
  • the weight represented by 0 or 1 as the importance is calculated based on the detection information, but the method of expressing the importance is not limited to this method.
  • the importance may be expressed in 1 to 5 levels.
  • the importance is assigned based on the posture information.
  • the importance is assigned based on the movement of the scroll bar. It is not limited to.
  • the importance may be calculated by substituting detection information into a predetermined equation.
  • the detection information used for calculating the importance and the calculation method may be changed according to the type of content.
  • the method for creating the presentation information may be any editing method that uses at least the interest level included in the usage history, and is not limited to the method exemplified in the above embodiment.
  • the presentation information may be created by searching / extracting / sorting information included in the usage history under a predetermined condition. More specifically, the user may be caused to input presentation information creation conditions, and the presentation information may be created based on the input creation conditions.
  • the creation condition may be a condition in which the conditions included in the usage history are appropriately combined. Examples of the creation condition include a condition in which some of the usage period range, title, interest level range, importance range, and cumulative time range are combined.
  • the creation condition may be input when the presentation command is input by the user or after the presentation information is once presented after the presentation command is input.
  • the presentation information may include the content information and the degree of interest, and does not need to include all the information exemplified in the above embodiment.
  • the content title and the degree of interest may be used as the presentation information.
  • a screen 90 illustrated in FIG. 30 is an example of a screen presented on the output device 50.
  • the screen 90 is provided with a presentation condition column 91, a content information column 92, and an order condition column 93.
  • the creation conditions shown on the screen 90 include a usage period of November 5, 2007 to November 6, 2007, an interest level of 5% to 50%, a usage date and title as content information, and an interest level. Is a condition presented in descending order.
  • the screen 191 shown in FIG. 31 is presented in step S40 of the main process shown in FIG.
  • the number of contents included in the presentation information can be narrowed down based on the conditions specified in the presentation condition column 91.
  • the degree of interest and desired content information can be presented based on the conditions specified in the content information column 92.
  • the presentation information rearranged in a desired order based on the conditions specified in the order condition column 93 can be presented.
  • the creation conditions of the presentation information and the screen layout are not limited to the specific example shown in FIG. 30, and can be changed as appropriate.
  • the presentation information presentation method can be appropriately changed according to the output device included in the information presentation system 1, and is not limited to the display of the screen 130 or 190 on the output device 50 of the above embodiment.
  • the output device is a display device
  • the layout or the like when the presentation information is displayed on the display device can be changed as appropriate.
  • the interest level calculation processing may be a combination of the first, fourth, and sixth embodiments.
  • step S143 of the modification shown in FIG. 32 three types of interest levels corresponding to the ratio of the stationary time in the presentation time, the ratio of the gaze time in the presentation time, and the operation time in the presentation time are obtained. Good.
  • step S143 a plurality of degrees of interest can be automatically calculated from different viewpoints.
  • the user can improve convenience when searching for desired content by combining a plurality of types of interest.
  • one type of interest may be obtained from the rest time, the gaze time, the operation time, and the presentation time.
  • the degree of interest can be obtained by comprehensively considering the stationary time, the gaze time, the operation time, and the presentation time.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報提示装置は、検出情報作成手段と、関心度算出手段と、利用履歴作成手段と、提示情報作成手段と、提示手段とを備えている。検出情報作成手段は、コンテンツ提示手段にコンテンツが提示されている時間である提示時間中の、利用者の所定部位の動き、及びコンテンツ提示手段に対する所定操作の少なくとも一方を示す情報である検出情報を作成する。関心度算出手段は、検出情報に基づき、利用者のコンテンツに対する関心度を算出する。利用履歴作成手段は、関心度と利用されたコンテンツのコンテンツ情報とを対応付けて利用履歴を作成し、複数のコンテンツの利用履歴を記憶する利用履歴記憶手段に記憶させる。提示情報作成手段は、利用履歴記憶手段に記憶された複数のコンテンツの利用履歴を関心度に基づき編集し、提示情報を作成する。提示手段は、提示情報を利用者に提示する。

Description

情報提示装置
 本開示は、利用者が過去に利用したコンテンツの履歴を利用者に提示する情報提示装置に関する。
 近年、インターネットやパソコン通信の普及により、インターネット等のネットワークを介して多数のコンテンツ利用者にコンテンツを提供するサービスが広く行われている。また、企業や教育の現場においては、他者が作成した文章ファイルや、表計算ファイル等のコンテンツが頻繁に閲覧される。コンテンツ利用者は、多数のコンテンツを利用するため、所望のコンテンツをすぐに見つけ出せる環境を整えることが重要となっている。
 そこで、これまでに、利用者が所望のコンテンツをすぐに見つけ出すための検索方法が種々提案されている。例えば、ウェブページの閲覧を行うソフトウェアであるブラウザにおいて、利用者が一定期間内に閲覧したウェブページの履歴をリンクによるネットワーク構造で表示する文書検索結果表示方法及び文書検索・表示装置が提案されている(特許文献1参照)。
特開2006-343905号公報
 特許文献1記載の文書検索結果表示方法及び文書検索・表示装置では、利用者が所望のウェブページを表示した際の表示経路や表示時期を失念した場合には、所望のウェブページを検索できない。また、利用者が表示経路や表示時期を記憶していた場合にも、リンク表示されたウェブページを個別に閲覧し、所望のウェブページであるか否かを確認しなければならない。このため、所望のウェブページを表示するための作業が煩雑である。
 本開示は、利用者が、過去に利用したコンテンツの中から、所望のコンテンツを容易に選択可能な情報提示装置を提供することを目的とする。
 本開示によれば、検出情報作成手段と、関心度算出手段と、利用履歴作成手段と、提示情報作成手段と、提示手段とを備える情報提示装置が提供される。検出情報作成手段は、利用者にコンテンツを提示するコンテンツ提示手段に前記コンテンツが提示されている時間である提示時間中の、当該利用者の所定部位の動き、及び前記コンテンツ提示手段に対する所定操作の少なくとも一方を示す情報である検出情報を作成する。関心度算出手段は、前記検出情報作成手段によって作成された前記検出情報に基づき、前記提示時間中の前記利用者の前記コンテンツに対する関心度を算出する。利用履歴作成手段は、前記関心度算出手段によって算出された前記関心度を、前記利用者によって利用された前記コンテンツに関する情報であるコンテンツ情報と対応付けて、利用履歴を作成し、複数のコンテンツの利用履歴を記憶する利用履歴記憶手段に記憶させる。提示情報作成手段は、前記利用履歴記憶手段に記憶された前記複数のコンテンツの前記利用履歴を、前記関心度に基づき編集し、前記コンテンツ情報及び前記関心度を含む情報である提示情報を作成する。提示手段は、前記提示情報作成手段によって作成された前記提示情報を前記利用者に提示する。
情報提示システム1の外観を示す模式図である。 情報提示システム1のブロック図である。 焦電センサ12及び赤外線センサ13の測定対象の説明図である。 PC30のメイン処理のフローチャートである。 図4に示すメイン処理において実行される関心度算出処理のフローチャートである。 焦電センサ12及び赤外線センサ13の出力値を例示するグラフである。 静止時間が提示時間に占める割合と関心度との関係を定めたテーブルである。 コンテンツ情報と、関心度とを記憶した利用履歴の説明図である。 利用者に提示される画面の一例の説明図である。 第2の実施形態のメイン処理のフローチャートである。 第2の実施形態の関心度算出処理のフローチャートである。 赤外線センサ13の測定対象の説明図である。 赤外線センサ13の出力値の説明図である。 第2の実施形態の利用履歴の説明図である。 利用者に提示される画面の一例の説明図である。 第3の実施形態の関心度算出処理のフローチャートである。 図16の関心度算出処理において実行される目線検出処理のフローチャートである。 コンテンツが文章である場合の、利用者の目線の動きの説明図である。 注視時間が提示時間に占める割合と関心度との関係を定めたテーブルである。 第4の実施形態の関心度算出処理のフローチャートである。 第5の実施形態の関心度算出処理のフローチャートである。 図21の関心度算出処理において実行されるポインタ検出処理のフローチャートである。 コンテンツが動画である場合の画面の一例の説明図である。 コンテンツが文章である場合の画面の一例の説明図である。 操作時間が提示時間に占める割合と関心度との関係を定めたテーブルである。 第6の実施形態の関心度算出処理のフローチャートである。 第7の実施形態の関心度算出処理のフローチャートである。 図27の関心度算出処理において実行される重み設定処理のフローチャートである。 出力装置50に提示される画面の一例の説明図である。 編集条件を入力する画面の一例の説明図である。 利用者に提示される画面の一例の説明図である。 変形例の関心度算出処理のフローチャートである。
 以下、第1~第7の実施形態を、図面を参照して順に説明する。まず、第1~第7の実施形態の情報提示システム1に共通するシステム構成について、図1及び図2を参照して説明する。図1及び図2に示すように、情報提示システム1は、センサ部10,パーソナルコンピュータ(以下、PCという)30,出力装置50,及び入力装置60を備える。以下、各構成要素の電気的構成について、図2を参照して詳述する。
 まず、PC30の電気的構成について、図2を参照して説明する。PC30は、所謂汎用のパーソナルコンピュータである。図2に示すように、PC30は、CPU31,ROM32,RAM33,I/Oインタフェイス(以下、I/Fという)34~38,及びハードディスク装置(以下、HDDという)39を備える。ROM32,RAM33,I/F34~38,及びHDD39は、バスを介して、CPU31に接続している。入力装置60は、例えば、所謂キーボード及びマウスを含み、I/F34を介してCPU31に接続されている。出力装置50は、例えば、液晶ディスプレイ等の表示装置であり、I/F35を介してCPU31に接続している。PC30は、I/F36を経由してインターネット等のネットワーク4に接続可能である。PC30は、入力装置60を用いて入力された指示に応じて、PC30内に記憶されたコンテンツ又はネットワーク4を介して取得されたコンテンツを、出力装置50に出力する。出力装置50が表示装置の場合、その画面にコンテンツを表示することにより、利用者にコンテンツを提示する。
 次に、センサ部10の電気的構成について、図2を参照して説明する。センサ部10は、PC30がコンテンツを利用者に提示している利用期間に、利用者の所定の動きを検出するセンサを備える。具体的には、センサ部10は、センサとして、焦電センサ12,赤外線センサ13,及びカメラ22を備える。
 焦電センサ12及び赤外線センサ13の測定対象について、図3を参照して説明する。焦電センサ12は、焦電型赤外線センサであり、利用者3から放出される赤外線61の変化を検出する。赤外線センサ13は、赤外線62を照射し、照射された赤外線62のうち、利用者3により反射された赤外線63を検出する。焦電センサ12及び赤外線センサ13からの出力データは、I/F11を介してPC30に入力される。PC30において、焦電センサ12及び赤外線センサ13からの出力データに基づき、利用者の体の動きの有無、及び利用者がPC30の周囲の所定の範囲にいるか否かが判断される。
 次に、カメラ22の測定対象について説明する。カメラ22は利用者の体、特に利用者の目の周囲を撮影するのに用いられる。カメラ22により撮影された利用者の画像データは、I/F21を介してPC30に入力される。入力された画像データは、PC30において、公知の画像解析プログラムを用いて解析され、解析結果に基づいて利用者の目線の動きが判断される。
 上記構成を有する情報提示システム1では、利用者にコンテンツが提示されている時間(以下、提示時間という)中に、利用中のコンテンツに対する利用者の関心度を自動的に作成する処理が実行される。そして、作成された関心度は、利用者が過去に利用したコンテンツ中から、所望のコンテンツを選択する際に利用される。
 次に、第1の実施形態のPC30のメイン処理について、図4~図9を参照して説明する。尚、図4及び図5に示す各処理を実行させるプログラムは、ROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図4及び図5に示す各処理において取得されたデータは、適宜RAM33(図2参照)に記憶される。
 図4に示すように、メイン処理ではまず、CPU31は、初期化処理を実行する(S5)。具体的には、CPU31は、例えば、RAM33に記憶されている全てのパラメータをクリアする。続いて、コンテンツを開始するか否かを判断する(S10)。具体的には、利用者が入力装置60を操作して、コンテンツを利用する指示を入力した場合に、CPU31はコンテンツを開始すると判断する。コンテンツが開始されない場合(S10:No)の処理は後述する。コンテンツが開始される場合(S10:Yes)、CPU31は関心度算出処理を実行する(S15)。
 関心度算出処理を、図5を参照して説明する。図5に示すように、関心度算出処理ではまず、CPU31は、提示時間の計測を開始する(S105)。提示時間は、関心度算出処理とは別途実行されるプログラムにより所定時間毎(例えば、1sec毎)に更新され、RAM33に記憶される。また、ステップS105において、CPU31は、センサ部10が備える焦電センサ12,赤外線センサ13,及びカメラ22を起動させる。
 続いて、CPU31は、赤外線センサ13の出力データに基づき、利用者を検知したか否かを判断する(S110)。図6に示す出力データを例に、ステップS110の処理を説明する。図6において、紙面上側のグラフ101は、赤外線センサの出力値と提示時間(t)との関係を示している。グラフ101において、期間t1及び期間t2の出力値は、利用者により反射された赤外線63を検出している場合の出力値を示し、期間t3の出力値は、利用者により反射された赤外線63(図3参照)を検出していない場合の出力値を示している。期間t3に示すような出力値が検出された場合、すなわち、利用者が検知されない場合(S110:No)、CPU31は、後述するステップS125の処理を行う。一方、期間t1及び期間t2に示すような出力値が検出された場合には、CPU31は、利用者が検知されたと判断し(S110:Yes)、更に利用者が動いているか否かを判断する(S115)。
 図6に示す出力データを例に、ステップS115の処理を説明する。図6の紙面下側のグラフ102は、焦電センサの出力値と提示時間(t)との関係を示している。グラフ102において、期間t2の出力値は、赤外線61(図3参照)の変動を検出した場合、すなわち、利用者が動いた場合の出力値を示す。一方、グラフ102において、期間t1及び期間t3の出力値は、赤外線61(図3参照)の変動を検出していない場合、すなわち、利用者が動いていない場合、又は利用者がいない場合の出力値を示す。期間t1に示すような出力値を検出した場合、すなわち、利用者が動いていない場合、又は利用者がいない場合(S115:No)、CPU31は利用者が静止している時間を表す静止時間を所定時間増加させ、RAM33に記憶させる(S120)。所定時間は、ステップS115の実行頻度に応じて定められればよい。
 CPU31は、続いて、ステップS125の処理を行う。例えば、期間t2の出力値を検出した場合(S115:Yes)、CPU31はコンテンツを終了するか否かを判断する(S125)。具体的には、利用者が入力装置60を操作して、コンテンツを終了させる指示を入力した場合に、コンテンツを終了すると判断する。コンテンツを終了しない場合(S125:No)、CPU31は、ステップS110に戻り、前述の処理を繰り返す。コンテンツを終了する場合(S125:Yes)、CPU31は、提示時間の計測を停止する(S130)。また、CPU31は、センサ部10が備える焦電センサ12,赤外線センサ13,及びカメラ22の動作を停止させる。
 続いて、CPU31は、RAM33に記憶されている静止時間及び提示時間を取得する(S135)。続いて、CPU31は、取得された静止時間が提示時間に占める割合に基づき、関心度を求め、関心度をRAM33に記憶させる(S140)。具体的には、CPU31は、図7に例示するテーブルと、ステップS135において取得された静止時間が提示時間に占める割合とを比較して、関心度を求める。例えば、静止時間が提示時間に占める割合が25%である場合、図7に示すテーブルに基づき、関心度は30%と求められる。
 続いて、CPU31は、RAM33及びHDD39を参照し、累積時間を算出し、RAM33に記憶させる(S145)。累積時間とは、コンテンツ毎に提示時間を累積した時間である。CPU31は、HDD39に記憶されている利用履歴120(図8参照)を参照し、利用されたコンテンツが過去に利用されている場合、提示時間を累積する。続いて、CPU31は、関心度算出処理を終了し、図4に示すメイン処理に戻る。
 引き続き図4を参照して、PC30のメイン処理を説明する。CPU31は、提示時間が下限値以上、かつ上限値以下であるか否かを判断する(S20)。提示時間は、図5の関心度算出処理のステップS130において算出され、RAM33に記憶されている。下限値及び上限値は、コンテンツに含まれる情報量に応じて定められればよい。コンテンツに含まれる情報量としては、例えば、文字数、ファイル容量、再生時間が挙げられる。
 ステップS20において、提示時間が下限値以上であるか否かを判断するのは、コンテンツの関心度を算出するのに十分な時間、コンテンツが提示されていたか否かを判断するためである。また、ステップS20において、提示時間が上限値以下であるか否かを判断するのは、コンテンツが適切に利用されていたか否かを判断するためである。コンテンツが適切に利用されていない場合の具体的な例としては、例えば、提示時間内に利用者が中座した場合や、利用者がコンテンツの利用以外の作業を行った場合が挙げられる。
 提示時間が下限値より小さい、または上限値より大きい場合(S20:No)、CPU31は、ステップS15において算出された関心度は利用履歴120(図8参照)に記憶させず、後述するステップS30の処理を実行する。提示時間が下限値以上、かつ、上限値以下である場合(S20:Yes)、図8に例示する利用履歴120を更新する(S25)。具体的には、CPU31は、ステップS15において算出した関心度と、利用されたコンテンツに関する情報(以下、コンテンツ情報という)とを、利用履歴120に追加し、HDD39に記憶させる(S25)。
 第1の実施形態では、図8に示すように、コンテンツが利用された日時121及びコンテンツ情報が、利用履歴120に記憶される。記憶されるコンテンツ情報は、アドレス122,タイトル123,及び内容124を含む。また、図5に示す関心度算出処理において求められた提示時間125,関心度126,及び累積時間127が、それぞれコンテンツ情報と対応付けて利用履歴120に記憶される。
 続いて、CPU31は、提示命令が入力されたか否かを判断する(S30)。具体的には、利用者が入力装置60を操作して、提示情報を提示する指示を入力した場合に、CPU31は提示命令が入力されたと判断する。提示情報とは、コンテンツの関心度に基づいて、利用履歴120を編集して作成される情報である。提示命令が入力されない場合(S30:No)、CPU31は、ステップS5に戻り処理を繰り返す。提示命令が入力された場合(S30:Yes)、CPU31は、利用履歴120を関心度126に基づいて編集し、提示情報を作成する(S35)。第1の実施形態では、CPU31は、利用履歴120に含まれる情報を、関心度126が高い順にソートして提示情報を作成する。関心度126が同じコンテンツが複数ある場合、例えば、関心度126が同じコンテンツ内で累積時間127が長い順にソートして提示情報を作成すればよい。
 続いて、CPU31は、ステップS35において編集された提示情報を、利用者に提示する(S40)。具体的には、CPU31は、図9の画面130に例示するように、提示情報を出力装置50に出力する。画面130に示される各項目は、アドレスに示されるコンテンツの記憶場所へのリンクが挿入されている。よって、利用者は、画面130に示された提示情報の中から、所望のコンテンツを見つけ出した場合、各項目に挿入されたリンクを利用して、容易にそのコンテンツにアクセスすることができる。提示情報を出力した後、CPU31は、ステップS5に戻り処理を繰り返す。以上のように、CPU31はメイン処理を実行する。
 上記第1の実施形態によれば、利用者にコンテンツが提示されている提示時間中に検出、作成された検出情報に基づき、そのコンテンツに対する利用者の関心度が自動的に推定、作成される。具体的には、提示時間中における、焦電センサ12及び赤外線センサ13からの出力値が示す利用者の体の動きの検出結果に基づいて、利用者が静止している時間を表す静止時間を検出情報として、関心度が算出される。一般に、閲覧するタイプのコンテンツでは、利用者がコンテンツに関心を持って利用している期間は、利用者は静止している傾向がある。このため、静止時間を用いれば、関心度を的確に求めることができる。閲覧するタイプのコンテンツとしては、文章ファイル、表計算ファイル、テレビ番組、映画等の動画、ウェブページが挙げられる。
 このように、関心度の算出に際し、利用者は、関心を持ったコンテンツを履歴に登録したり、コンテンツに対する評価を入力したりする煩雑な操作をする必要がない。また、利用者は、過去に利用したコンテンツの中から、利用者が興味、関心を持ったコンテンツを見つけ出したい場合に、提示情報に含まれる関心度を参照しながら、所望のコンテンツを容易に探すことができる。さらに、コンテンツがPC30に記憶されている場合、提示情報に含まれる関心度を用いて、不要なコンテンツの整理(削除や移動等)をすることも可能である。
 次に、第2の実施形態のPC30のメイン処理について、図10を参照して説明する。図10において、図4に示す第1の実施形態のメイン処理と同様な処理が行われるステップには、同じステップ番号が付与されている。図10に示すように、第2の実施形態のPC30のメイン処理は、ステップS16,S26,S36,及びS41において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、まず、ステップS16において実行される第2の実施形態の関心度算出処理について、図11~図13を参照して説明する。次に、図10のステップS26,S36,及びS41で行われる処理について、図14及び図15を参照して説明する。
 尚、図10及び図11に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。図11において、図5に示す第1の実施形態の関心度算出処理と同様な処理が行われるステップには、同じステップ番号が付与されている。
 図11に示すように、第2の実施形態の関心度算出処理では、ステップS106,S126,S131,及びS132が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。第1の実施形態と同様な処理については説明を省略し、以下、第1の実施形態と異なる、ステップS106,S126,S131,及びS132で行われる処理について順に説明する。
 ステップS106では、CPU31は、赤外線センサ13の出力値から、コンテンツ提示開始時の、利用者と赤外線センサ13との間の距離を取得し、RAM33に記憶させる(S106)。ステップS106の処理は、コンテンツ提示開始時における利用者と赤外線センサ13との間の距離を基準として、コンテンツ提示開始時とコンテンツ提示終了時とにおける利用者の姿勢の変化を評価するための処理である。ステップS126では、CPU31は、赤外線センサ13の出力値から、コンテンツ提示終了時の、利用者と赤外線センサ13との間の距離を取得し、RAM33に記憶させる(S126)。
 ステップS131では、CPU31は、ステップS106で取得された開始時の距離より、ステップS126で取得した終了時の距離が小さいか否かを判断する(S131)。第2の実施形態では、利用者の姿勢の変化が、赤外線センサ13と利用者との間の距離の変化により判断される。例えば、図12に示すように、利用者3の姿勢が、破線で示す姿勢から実線で示す姿勢に変化した場合を想定する。この場合、赤外線センサ13の出力値は、図13に示すように、赤外線センサ13と利用者との間の距離に応じて、期間t4で示す期間の出力値から、期間t5で示す期間の出力値へと変化する。
 一般に、利用者にとって重要度の高いコンテンツでは、コンテンツの提示を開始した時に比べ、コンテンツの提示を終了した時にはPC30と利用者の距離が小さくなる傾向がある。つまり、ステップS106で取得された開始時の距離より、ステップS126で取得された終了時の距離の方が小さくなる(S131:Yes)。この場合、CPU31は、重みに1をセットし、RAM33に記憶させる(S132)。第2の実施形態では、コンテンツの重要度を示す重みが0又は1で付与され、重みの初期値は0である。重みに1が設定されたコンテンツは、重みに0が設定されているコンテンツに比べ、利用者にとって重要度の高いコンテンツであることを示している。ステップS106で取得された開始時の距離より、ステップS126で取得された終了時の距離の方が小さくはない場合(S131:NO)、又はステップS132に続いて、CPU31は、第1の実施形態と同様のステップS135の処理を実行する。以上のように、CPU31は、第2の実施形態の関心度算出処理を実行する。
 次に、図10のステップS26,S36,及びS41について、図14及び図15を参照して説明する。ステップS26では、CPU31は、図14に例示する利用履歴180を更新する(S26)。具体的には、CPU31は、図10のステップS16において算出された関心度及び重みと、利用されたコンテンツのコンテンツ情報とを、利用履歴180に追加し、HDD39に記憶させる(S26)。図14の利用履歴180に含まれる情報は、第1の実施形態の利用履歴120(図8参照)に含まれる情報に加え、重み128が含まれる。
 図10のステップS36では、CPU31は、関心度126及び重み128に基づき利用履歴180を編集し、提示情報を作成する(S36)。第2の実施形態では、CPU31は、利用履歴180に含まれる情報を、まず、関心度126が高い順にソートする。関心度126が同じコンテンツが複数ある場合、関心度126が同じコンテンツ内で重み128が大きい順にソートして提示情報を作成する。図10のステップS41では、CPU31は、ステップS36において作成した提示情報を、利用者に提示する(S41)。具体的には、CPU31は、図15の画面190に例示するように、ステップS36で編集した提示情報を出力装置50に出力する。続いて、CPU31は、ステップS5に戻り処理を繰り返す。以上のように、CPU31は第2の実施形態のメイン処理を実行する。
 上記第2の実施形態では、提示情報は、コンテンツ情報および関心度に加え、重みに基づき作成される。提示情報に含まれるコンテンツが多い場合等、コンテンツ情報及び関心度のみでは、所望のコンテンツを見つけることが困難な場合がありうる。このような場合にも、第3の要素として重みを参照して提示情報を作成することにより、利用者は所望のコンテンツを容易に探すことができる。提示情報に含まれる重みは、利用者にコンテンツが提示されている提示時間中に検出・作成された検出情報(本実施形態では、姿勢情報)に基づき自動的に作成される。したがって、利用者は、コンテンツの重要度を入力する煩雑な操作をすることなく、容易に重要度を含む提示情報を取得することができる。
 第2の実施形態では、重みは、コンテンツの提示開始時と終了時における利用者の姿勢の変化を示す情報である姿勢情報に基づき求められる。一般に、利用者にとって重要度の高いコンテンツでは、コンテンツの提示を開始した時に比べ、コンテンツの提示を終了した時には、利用者とPC30との距離が近くなる傾向がある。このため、姿勢情報を用いれば、重みを的確に求めることができる。
 次に、第3の実施形態のPC30のメイン処理について説明する。図示しないが、第3の実施形態のPC30のメイン処理は、ステップS15の関心度算出処理において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なる第3の実施形態の関心度算出処理について、図16~図19を参照して説明する。尚、図16及び図17に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図16において、図5に示す第1の実施形態の関心度算出処理と同様な処理を行うステップには、同じステップ番号が付与されている。
 図16に示すように、第3の実施形態の関心度算出処理では、ステップS111,S136,及びS141の処理が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。第1の実施形態と同様な処理については説明を省略し、以下、第1の実施形態と異なる、ステップS111,S136,及びS141で行われる処理について順に説明する。
 ステップS111では、CPU31は目線検出処理を実行する(S111)。目線検出処理の詳細を、図17を参照して説明する。図17に示すように、目線検出処理ではまず、CPU31は、提示されているコンテンツが動画であるか否かを判断する(S205)。コンテンツが動画であるか否かは、例えば、コンテンツに付随する情報を参照して判断することができる。また、例えば、コンテンツを提示するために利用中のソフトウェアの種類に基づき判断することができる。コンテンツが動画ではない場合(S205:No)の処理は後述する。コンテンツが動画である場合(S205:Yes)、CPU31は、利用者の目線が動いているか否かを判断する(S210)。第3の実施形態では、カメラ22を用いて利用者の顔を撮影した画像データが、図17に示す目線検出処理とは別途実行される公知のプログラムを用いて解析される。CPU31は、S210において、その解析結果に基づき、利用者の目線が動いているか否かを判断する。
 利用者の目線が動いていない場合(S210:No)、CPU31は、注視時間を所定時間増加させ、RAM33に記憶させる(S215)。注視時間は、利用者が集中してコンテンツを利用している時間を反映する時間である。所定時間は、目線検出処理の実行頻度に応じて定められればよい。利用者の目線が動いていない場合に、注視時間をカウントするのは、次の理由による。コンテンツが動画である場合は、一般に、利用者がコンテンツを集中して利用しているときには、利用者は画面を注視し、目線が動かない傾向があるからである。利用者の目線が動いている場合(S210:Yes)、又はステップS215に続いて、CPU31は、図16に示す関心度算出処理に戻る。
 コンテンツが動画ではない場合(S205:No)、CPU31は利用者の目線が文章をなぞっているか否かを判断する(S220)。「利用者の目線が文章をなぞっている」状態について、図18を例に説明する。利用者に提示されているコンテンツが、図18に例示するような横書きの文章である場合、利用者は矢印のように目線を動かしてコンテンツに含まれる文章を読む。CPU31は、上述の画像データの解析結果に基づき、利用者の目線がコンテンツに含まれる文章を読んでいる場合の動きをしていると判断される場合に、「利用者の目線が文章をなぞっている」と判断する。利用者の目線が文章をなぞっている場合(S220:Yes)、CPU31は、注視時間を所定時間増加させ、RAM33に記憶させる(S215)。所定時間は、目線検出処理の実行頻度に応じて定められればよい。利用者の目線が文章をなぞっている場合に、注視時間をカウントするのは、次の理由による。コンテンツが文章である場合は、一般に、利用者がコンテンツを集中して利用しているときには、利用者は文章を読んでいるため、利用者の目線が文章をなぞるように動く傾向があるからである。利用者の目線が文章をなぞっていない場合(S220:No)、又はステップS225に続いて、CPU31は、図16に示す関心度算出処理に戻る。
 図16のステップS136では、CPU31はRAM33を参照し、注視時間及び提示時間を取得する(S136)。続いて、CPU31は、ステップS136において取得された注視時間が提示時間に占める割合に基づき、関心度を求め、RAM33に記憶させる(S141)。具体的には、CPU31は、図19に例示するテーブルと、ステップS136において取得した注視時間が提示時間に占める割合とを比較して、関心度を求める。例えば、注視時間が提示時間に占める割合が15%である場合、図19のテーブルに基づき関心度は20%であると求められる。以上のように、CPU31は、第3の実施形態の関心度算出処理を実行する。
 上記第3の実施形態では、検出情報は、利用期間中の利用者の目の動きの検出結果に基づき求められた注視時間を含む。一般に、コンテンツが文章を含む場合は、利用者がコンテンツに関心を持って利用している期間は、利用者の目は文章をなぞる動きをする傾向がある。文章を目で追うタイプのコンテンツとしては、例えば、文章ファイル、表計算ファイル、ウェブページが挙げられる。一方、コンテンツが動画である場合には、利用者がコンテンツに関心を持って利用している期間は、利用者の目は所定の範囲を注視した動きをする傾向がある。このため、注視時間を用いれば、関心度を的確に求めることができる。
 第3の実施形態においても、関心度の作成に際し、利用者は、関心を持ったコンテンツを履歴に登録したり、コンテンツに対する評価を入力したりする煩雑な操作をする必要がない。また、利用者は、過去に利用したコンテンツの中から、利用者が興味、関心を持ったコンテンツを見つけ出したい場合に、提示情報を参照しながら、所望のコンテンツを容易に探すことができる。
 次に、第4の実施形態のPC30のメイン処理について説明する。図示しないが、第4の実施形態のPC30のメイン処理は、ステップS15の関心度算出処理において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なる第4の実施形態の関心度算出処理について、図20を参照して説明する。尚、図20に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図20において、図5に示す第1の実施形態の関心度算出処理、又は図16に示す第3の実施形態の関心度算出処理と同様な処理を行うステップには、同じステップ番号が付与されている。
 図20に示すように、第4の実施形態の関心度算出処理では、ステップS120に代えてステップS121が実行され、ステップS136,及びS141が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。ステップS121の処理は、図16に示す第3の実施形態の関心度算出処理のステップS111の目線検出処理と同様であり、ステップS136,及びS141の処理は、第3の実施形態の関心度算出処理のステップS136,及びS141と同様である。よって、これらステップの処理については、説明を省略する。以上のように、第4の実施形態では、CPU31は、利用者が動いていない場合に(S115:No)、第3の実施形態と同様の目線検出処理を行う(S121)。
 上記第4の実施形態の情報提示システム1では、利用者が体を動かしていない条件を満たすときの注視時間を用いて、関心度が作成される。前述のように、一般に、閲覧するタイプのコンテンツでは、利用者がコンテンツに関心を持って利用している期間は、利用者は体を動かしていない、すなわち、静止している傾向がある。このため、利用者が体を動かしていない条件を満たすときの注視時間を用いれば、関心度をより的確に求めることができる。
 次に、第5の実施形態のPC30のメイン処理について説明する。図示しないが、第5の実施形態のPC30のメイン処理は、ステップS15の関心度算出処理において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なる第5の実施形態の関心度算出処理について、図21~図25を参照して説明する。尚、図21及び図22に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図21において、図5に示す第1の実施形態の関心度算出処理と同様な処理が行われるステップには、同じステップ番号が付与されている。
 図21に示すように、第5の実施形態の関心度算出処理では、ステップS112,S137,及びS142が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。第1の実施形態と同様な処理については説明を省略し、以下、第1の実施形態と異なる、ステップS112,S137,及びS142の処理について順に説明する。
 ステップS112では、CPU31は、ポインタ検出処理を実行する(S112)。ポインタ検出処理の詳細を、図22を参照して説明する。図22に示すように、ポインタ検出処理ではまず、CPU31は、提示されているコンテンツが動画であるか否かを判断する(S305)。コンテンツが動画であるか否かの判断方法は、図17に示す目線検出処理のステップS205と同様である。コンテンツが動画ではない場合(S305:No)の処理は後述する。コンテンツが動画である場合(S305:Yes)、CPU31は、ポインタが動いているか否かを判断する(S310)。ポインタは、出力装置50に表示されるカーソル、又はポインタ(矢印)を言い、入力装置60を利用者が操作した場合に移動される。ポインタが動いているか否かは、例えば、入力装置60からポインタを移動させるための指示が入力されたか否かにより判断することができる。
 ポインタが動いていない場合(S310:No)、CPU31は操作時間を所定時間増加させ、RAM33に記憶させる(S315)。操作時間は、利用者が集中してコンテンツを利用している時間を反映する時間である。所定時間は、ポインタ検出処理の実行頻度に応じて定められればよい。ポインタが動いていない場合に、操作時間をカウントするのは、次の理由による。図23に示すようにコンテンツが動画である場合は、ポインタ71は、コンテンツを停止、再生、早送り、巻き戻し等をすることを指示するために用いられる。そして、一般に、利用者がコンテンツを集中して利用しているときには、利用者はポインタ71を動かす指示を入力しない傾向があるからである。ポインタが動いている場合(S310:Yes)、又はステップS315に続いて、CPU31は、図21に示す関心度算出処理に戻る。
 コンテンツが動画ではない場合(S305:No)、CPU31は文章が反転表示されているか否かを判断する(S220)。「文章が反転表示されている」状態について、図24を例に説明する。「文章が反転表示されている」とは、図24に示すように、ポインタ72が、例えば矢印66の方向に移動され、コンテンツに含まれる文字列の一部73が反転表示されている状態をいう。CPU31は、例えば、入力装置60から入力される指示に基づき、文章が反転表示されているか否かを判断することができる。また例えば、CPU31は、別途実行される公知のプログラムによる、出力装置50に提示されている画像データの解析結果に基づき、文章が反転表示されているか否かを判断すればよい。
 文章が反転表示されている場合(S320:Yes)、CPU31は操作時間を所定時間増加させ、RAM33に記憶させる(S325)。所定時間は、ポインタ検出処理の実行頻度に応じて定められればよい。文章が反転表示されている場合に、操作時間をカウントするのは、次の理由による。コンテンツが文章である場合は、一般に、利用者がコンテンツに興味を示している場合には、利用者は文章の特に興味がある部分を反転表示させる傾向があるからである。文章が反転表示されていない場合(S320:No)、又はステップS325に続いて、CPU31は、図21に示す関心度算出処理に戻る。
 図21のステップS137では、CPU31はRAM33を参照し、操作時間及び提示時間を取得する(S137)。続いて、CPU31は、ステップS137において取得された操作時間が提示時間に占める割合に基づき、関心度を求め、RAM33に記憶させる(S142)。具体的には、CPU31は、図25に例示するテーブルと、ステップS137において取得された操作時間が提示時間に占める割合とを比較して、関心度を求める。例えば、操作時間が提示時間に占める割合が5%であった場合、図25のテーブルに基づき関心度が10%と求められる。以上のように、CPU31は、第5の実施形態の関心度算出処理を実行する。
 上記第5の実施形態の情報提示システム1によれば、検出情報は、利用期間中の出力装置50に提示されたポインタに対する操作の有無に基づく操作時間を含む。コンテンツが文章を含む場合、利用者がコンテンツに関心を持って利用している期間に、利用者はポインタの操作によって文章の一部又は全部を反転表示させる傾向がある。一方、コンテンツが動画である場合には、利用者がコンテンツに関心を持って利用している期間は、ポインタは操作されない傾向がある。このため、第5の実施形態のポインタ検出処理において求められた操作時間を用いれば、関心度を的確に求めることができる。
 次に、第6の実施形態のPC30のメイン処理について説明する。図示しないが、第6の実施形態のPC30のメイン処理は、ステップS15の関心度算出処理において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なる第6の実施形態の関心度算出処理について、図26を参照して説明する。尚、図26に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図26において、図5に示す第1の実施形態の関心度算出処理、又は図21に示す第5の実施形態の関心度算出処理と同様な処理が行われるステップには、同じステップ番号が付与されている。
 図26に示すように、第6の実施形態の関心度算出処理では、ステップS120に代えてステップS122が実行され、ステップS137,及びS142が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。ステップS122の処理は、図21に示す第5の実施形態の関心度算出処理のステップS112の処理と同様であり、ステップS137,及びS142の処理は、第5の実施形態の関心度算出処理のステップS137,及びS142と同様である。よって、説明を省略する。このように、第6の実施形態では、CPU31は、利用者が動いていない場合に(S115:No)、第5の実施形態と同様なポインタ検出処理(S122)を行う。
 上記第6の実施形態の情報提示システム1によれば、利用者が体を動かしていない条件を満たすときの操作時間を用いて、関心度を作成する。前述のように、一般に、閲覧するタイプのコンテンツでは、利用者がコンテンツに関心を持って利用している期間は、利用者は体を動かしていない、すなわち、静止している傾向がある。このため、利用者が体を動かしていない条件を満たすときの操作時間を用いれば、関心度をより的確に求めることができる。
 次に、第7の実施形態のPC30のメイン処理について説明する。図示しないが、第7の実施形態のPC30のメイン処理は、ステップS15の関心度算出処理において、図4に示す第1の実施形態のメイン処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なる第7の実施形態の関心度算出処理について、図27~図29を参照して説明する。尚、図27及び図28に示す各処理を実行させるプログラムはROM32(図2参照)に記憶されており、CPU31(図2参照)が実行する。また、図27において、図5に示す第1の実施形態の関心度算出処理と同様な処理が行われるステップには、同じステップ番号が付与されている。
 図27に示すように、第7の実施形態の関心度算出処理では、ステップS124が実行される点で、図5に示す第1の実施形態の関心度算出処理と異なる。よって、第1の実施形態と同様な処理については説明を省略し、第1の実施形態と異なるステップS124について説明する。
 出力装置50に図29に示す画面が出力されている場合を例として、図28を参照して、ステップS124で行われる重み設定処理の詳細を説明する。図28に示すように、重み設定処理ではまず、CPU31は、現在のスクロールバー85の位置を検出し、RAM33に記憶させる(S400)。スクロールバー85の位置は、公知の方法により取得される。続いて、CPU31は、RAM33を参照し、重みフラグにONがセットされているか否かを判断する(S405)。重みフラグは、スクロールバー85が下限まで移動されたか否かを判別するためのフラグであり、RAM33に記憶されている。重みフラグの初期値はOFFであり、後述するステップS425においてONに設定される。重みフラグがONではない場合(S405:No)の処理は後述する。
 重みフラグがONである場合(S405:Yes)、CPU31は、スクロールバー85が上方(図29において矢印86で示す方向)に移動したか否かを判断する(S410)。スクロールバー85が上方に移動されたか否かは、ステップS400で検出された現在のスクロールバー85の位置と、前回実行時のステップS400で検出された前回のスクロールバー85の位置とを比較して判断することができる。スクロールバー85が上方に移動されている場合には(S410:Yes)、CPU31は重みを1に設定し、RAM33に記憶させる。第7の実施形態では、コンテンツの重要度を示す重みは0又は1で付与され、重みの初期値は0である。重みに1が設定されたコンテンツは、重みに0が設定されているコンテンツに比べ、利用者にとって重要度の高いコンテンツであることを示している。
 スクロールバー85が上方に移動されている場合に(S410:Yes)、重みを1に設定するのは、次の理由による。一般に、画面のスクロールバー85が表示されるタイプのコンテンツの場合、利用者にとって重要度の高いコンテンツでは、一度閲覧した箇所を再度確認することがある。このような場合、PC30に提示された画面のスクロールバー85が終了側から開始側に移動される操作が実行される。よって、第7の実施形態では、スクロールバー85が一旦下限まで移動された後(S405:Yes)、スクロールバーが上方に移動された場合には(S410:Yes)、重みを1に設定している。スクロールバー85が上方に移動されていない場合(S410:No)、又はステップS415に続いて、CPU31は図27に示す関心度算出処理に戻り、処理を繰り返す。
 重みフラグがONではない場合(S405:No)、CPU31は、ステップS400において取得されたスクロールバー85の位置が下限であるか否かを判断する(S420)。スクロールバー85が下限まで移動されている場合(S420:Yes)、CPU31は、重みフラグにONを設定し、RAM33に記憶させる(S425)。スクロールバー85が下限まで移動されていない場合(S420:No)、又はステップS425に続いて、図27に示す関心度算出処理に戻り処理を繰り返す。以上のように、CPU31は、第7の実施形態の関心度算出処理を実行する。
 上記第7の実施形態の情報提示システム1によれば、提示情報には、出力装置50に提示された画面のスクロールバーが終了側から開始側に移動された操作に基づく操作情報に基づき求められた重みが含まれる。一般に、画面のスクロールバーが表示されるタイプのコンテンツの場合、利用者にとって重要度の高いコンテンツでは、一度閲覧した箇所を再度確認することがある。このような場合、出力装置50に提示された画面のスクロールバーが終了側から開始側に移動される操作が実行される。このため、第7の実施形態の重み設定処理において検出されたスクロールバーの操作情報を用いれば、重要度を的確に求めることができる。
 尚、以上詳述した実施形態に、本発明の要旨を逸脱しない範囲内において種々変更が加えられてもよい。例えば、以下の(1)~(13)に示す変形を適宜加えてもよい。
 (1)情報提示システム1が備える各構成は適宜変更可能である。例えば、情報提示システム1のセンサ部10は、焦電センサ12,赤外線センサ13及びカメラ22を備えているが、センサ部10が備えるセンサは、検出情報に応じて適宜変更可能である。より具体的には、第1,第2,及び第5~第7の実施形態では、センサ部10は、カメラ22を備えていなくともよい。また、第3の実施形態では、センサ部10は、焦電センサ12及び赤外線センサ13を備えていなくてもよい。また、PC30が備える記憶装置は、図2に例示したROM32,RAM33,HDD39の他、フラッシュメモリやEEPROM等の他の記憶装置を適宜組み合わせられていてもよい。PC30のメイン処理を実行するためのプログラムは、メモリカードやCD-ROM等の外部記憶装置に記憶されたプログラムであってもよい。この場合、PC30に外部記憶装置と接続するためのコネクタが設けられればよい。
 (2)利用者が利用するコンテンツは、上記実施形態で例示された、動画や文章ファイルに限定されない。利用の対象となるコンテンツとしては、例えば、ウェブページ、メール、動画(テレビ番組、映画等)、文章ファイル、表計算ファイルが挙げられる。
 (3)利用履歴は、少なくとも関心度及びコンテンツ情報を含めばよく、上記実施形態に例示された情報をすべて含む必要はない。例えば、利用履歴120(図8参照)に含まれる、利用日時121,アドレス122,タイトル123,及び内容124の一部をコンテンツ情報としてもよい。また、利用履歴120に含まれるコンテンツ情報以外の情報をコンテンツ情報としてもよい。例えば、コンテンツ情報として、コンテンツID,コンテンツ作成者、コンテンツ作成時期、及びコンテンツに含まれる情報量から選択された1つの情報、又は複数の情報が含まれてもよい。
 (4)関心度の算出に用いられる検出情報は、上記実施形態で用いられた情報に限定されず、各種センサによって検出可能な情報を適宜採用可能である。例えば、検出情報として、利用者の所定の動きの回数が用いられてもよい。利用者の所定の動きの例としては、利用者がうなずく動作、あくびをする動作が挙げられる。利用者が関心を持ってコンテンツを利用する場合には、利用期間中に利用者がうなずく動作をする場合がありうる。このため、利用期間中に利用者がうなずいた回数に基づき関心度を算出すれば、関心度を的確に求めることができる。また、利用者がコンテンツに関心を示していない場合、利用期間中に利用者があくびをする動作をする場合がありうる。このため、利用期間中に利用者があくびをした回数に基づき関心度を算出すれば、関心度を的確に求めることができる。利用者の所定の動きを検出するには、例えば、カメラで利用者を撮影し、その画像データを公知の方法により解析すればよい。
 (5)上記実施形態では、検出情報に基づき、0~100%で表される関心度が算出されているが、関心度の表現方法はこの方法に限定されない。例えば、1~5段階で関心度を表してもよい。
 (6)上記実施形態では、検出情報と予め定められているテーブルとが比較され、関心度が算出されているが、関心度の算出方法はこの方法に限定されない。例えば、検出情報として提示時間と静止時間とを用いて関心度を求める場合、上記実施形態では、静止時間が提示時間に占める割合と、図7に示すテーブルとが比較されている。他の方法として、例えば、静止時間と提示時間とを、予め定められた方程式に代入して関心度を求めてもよい。検出情報として提示時間と注視時間又は操作時間とを用いて関心度を求める場合も同様である。さらに、コンテンツの種類に応じて、関心度の算出に用いる検出情報や、算出方法を変えてもよい。
 (7)重要度の算出に用いる検出情報は、上記実施形態に例示された情報に限定されない。例えば、累積時間が採用されてもよい。利用者にとって重要度の高いコンテンツは、繰り返し利用され、累積時間が多くなることが想定される。このため、累積時間を用いれば、重要度を的確に求めることができる。また、例えば、重要度の算出に用いる検出情報として、利用回数を用いてもよい。利用者にとって重要度の高いコンテンツは、繰り返し利用され、利用回数が多くなることが想定される。このため、利用回数を用いれば、重要度を的確に求めることができる。
 (8)上記実施形態では、検出情報に基づき、重要度として0又は1で表される重みが算出されているが、重要度の表現方法はこの方法に限定されない。例えば、1~5段階で重要度を表してもよい。
 (9)第2の実施形態では、姿勢情報に基づき重要度が付与され、第7の実施形態では、スクロールバーの移動に基づき重要度が付与されているが、重要度の算出方法はこの方法に限定されない。例えば、予め定められた方程式に検出情報を代入して重要度を算出してもよい。さらに、コンテンツの種類に応じて、重要度の算出に用いる検出情報や、算出方法を変えてもよい。
 (10)提示情報の作成方法は、少なくとも利用履歴に含まれる関心度を用いた編集方法であればよく、上記実施形態で例示された方法に限定されない。例えば、利用履歴に含まれる情報を、所定条件で検索・抽出、ソート等することにより、提示情報を作成すればよい。より具体的には、利用者に提示情報の作成条件を入力させ、入力された作成条件に基づき提示情報を作成してもよい。作成条件は、利用履歴に含まれる条件が適宜組み合わされた条件であればよい。作成条件として、例えば、利用期間の範囲、タイトル、関心度の範囲、重要度の範囲、及び累積時間の範囲のうちいくつかが組み合わされた条件が挙げられる。作成条件の入力時期は、利用者によって提示命令が入力される際でもよいし、提示命令が入力された後、一旦提示情報が提示された後であってもよい。
 (11)提示情報は、コンテンツ情報及び関心度を含めばよく、上記実施形態で例示された情報をすべて含む必要はない。例えば、コンテンツのタイトル及び関心度を提示情報としてもよい。また、提示情報に含ませるコンテンツ情報を、利用者に指定させてもよい。このようにすれば、利用者は所望の情報を提示情報として取得することができる。
 提示情報の作成条件を利用者が指定する場合を、図30に示す具体例を用いて説明する。図30に示す画面90は、出力装置50に提示される画面の一例である。画面90には、提示条件欄91,コンテンツ情報欄92,及び順序条件欄93が設けられている。画面90に示す作成条件は、利用期間が2007年11月5日~2007年11月6日、関心度が5%~50%であり、コンテンツ情報として利用日時及びタイトルを含み、かつ、関心度が高い順に提示する条件である。
 画面90に示す作成条件を用い、図8に示す利用履歴120から提示情報が作成された場合、図4に示すメイン処理のステップS40では、図31に示す画面191が提示される。このように、提示条件欄91において指定された条件に基づき、提示情報に含まれるコンテンツの数を絞り込むことができる。また、コンテンツ情報欄92において指定された条件に基づき、関心度及び所望のコンテンツ情報を提示させることができる。また、順序条件欄93において指定された条件に基づき、所望の順序で並べ替えられた提示情報を提示することができる。尚、提示情報の作成条件や、画面のレイアウトは、図30に示す具体例に限定されず、適宜変更可能である。
 (12)提示情報の提示方法は、情報提示システム1が備える出力装置に応じて適宜変更可能であり、上記実施形態の出力装置50への画面130または190の表示に限定されない。例えば、出力装置としてプリンタ等の印刷装置を備える場合には、提示情報は印刷されてもよい。また、出力装置が表示装置である場合、提示情報が表示装置に表示される際のレイアウト等は、適宜変更可能である。
 (13)上記実施形態及び変形例を適宜組み合わせてもよい。上記実施形態及び変形例を組み合わせた変形例を、図32を参照して説明する。図32において、図5に示す第1の実施形態の関心度算出処理、図20に示す第4の実施形態の関心度算出処理,及び図26に示す第6の実施形態の関心度算出処理と同様な処理が実行される場合には、同じステップ番号が付与されている。図32に示すように、関心度算出処理は、第1,第4,及び第6の実施形態を組み合わせてもよい。図32に示す変形例のステップS143では、提示時間に占める静止時間の割合、提示時間に占める注視時間の割合、及び提示時間に占める操作時間のそれぞれに対応する3種類の関心度を求めてもよい。このようにすれば、異なる観点から複数の関心度を自動的に算出することができる。この場合、利用者は複数種類の関心度を組み合わせることにより、所望のコンテンツを探す際の利便性を向上させることが可能である。また例えば、ステップS143において、静止時間、注視時間、操作時間及び提示時間から、1種類の関心度を求めてもよい。この場合には、静止時間、注視時間、操作時間及び提示時間を総合的に考慮して、関心度を求めることができる。

Claims (9)

  1.  利用者にコンテンツを提示するコンテンツ提示手段に前記コンテンツが提示されている時間である提示時間中の、当該利用者の所定部位の動き、及び前記コンテンツ提示手段に対する所定操作の少なくとも一方を示す情報である検出情報を作成する検出情報作成手段と、
     前記検出情報作成手段によって作成された前記検出情報に基づき、前記提示時間中の前記利用者の前記コンテンツに対する関心度を算出する関心度算出手段と、
     前記関心度算出手段によって算出された前記関心度を、前記利用者によって利用された前記コンテンツに関する情報であるコンテンツ情報と対応付けて、利用履歴を作成し、複数のコンテンツの利用履歴を記憶する利用履歴記憶手段に記憶させる利用履歴作成手段と、
     前記利用履歴記憶手段に記憶された前記複数のコンテンツの前記利用履歴を、前記関心度に基づき編集し、前記コンテンツ情報及び前記関心度を含む情報である提示情報を作成する提示情報作成手段と、
     前記提示情報作成手段によって作成された前記提示情報を、前記提示情報を前記利用者に提示する提示情報提示手段に出力する提示情報出力手段と
    を備える情報提示装置。
  2.  前記検出情報は、前記提示時間と、前記利用者の体の動きの検出結果に基づき求められ、前記利用者が静止している時間を表す静止時間とを含み、
     前記関心度算出手段は、前記提示時間と前記静止時間とに基づき、前記関心度を算出することを特徴とする請求項1に記載の情報提示装置。
  3.  前記検出情報は、前記提示時間と、所定条件を満たした場合の前記利用者の目の動きの検出結果に基づき求められた時間である注視時間とを含み、
     前記関心度算出手段は、前記提示時間と前記注視時間とに基づき、前記関心度を算出することを特徴とする請求項1又は2に記載の情報提示装置。
  4.  前記検出情報は、前記提示時間と、所定条件を満たした場合の前記コンテンツ提示手段に提示されるポインタに対する操作の有無に基づき求められた時間である操作時間とを含み、
     前記関心度算出手段は、前記提示時間と前記操作時間とに基づき、前記関心度を算出することを特徴とする請求項1又は2に記載の情報提示装置。
  5.  前記所定条件は、前記利用者が体を動かしていない条件であることを特徴とする請求項3又は4に記載の情報提示装置。
  6.  前記検出情報作成手段によって作成された前記検出情報に基づき、前記利用者にとっての前記コンテンツの重要度を算出する重要度算出手段をさらに備え、
     前記利用履歴作成手段は、前記関心度算出手段によって算出された前記関心度、及び前記重要度算出手段によって算出された前記重要度を、前記コンテンツ情報と対応付けて、前記利用履歴を作成し、
     前記提示情報作成手段は、前記利用履歴記憶手段に記憶された前記複数のコンテンツの前記利用履歴を、前記関心度及び前記重要度に基づき編集して前記提示情報を作成することを特徴とする請求項1乃至5のいずれかに記載の情報提示装置。
  7.  前記検出情報は、前記コンテンツの提示が開始された時と、前記コンテンツの提示が終了した時とにおける、前記利用者と前記コンテンツ提示手段との距離を比較して得られる情報である姿勢情報を含み、
     前記重要度算出手段は、少なくとも前記検出情報に含まれる前記姿勢情報に基づき、前記重要度を算出することを特徴とする請求項6に記載の情報提示装置。
  8.  前記検出情報は、前記所定操作である前記コンテンツ提示手段に提示されたスクロールバーが終了側から開始側に移動された操作を示す情報である操作情報を含み、
     前記重要度算出手段は、少なくとも前記検出情報に含まれる前記操作情報に基づき、前記重要度を算出することを特徴とする請求項6又は7に記載の情報提示装置。
  9.  前記検出情報は、前記コンテンツの前記提示時間を積算して得られる累積時間を含み、
     前記重要度算出手段は、少なくとも前記検出情報に含まれる前記累積時間に基づき、前記重要度を算出することを特徴とする請求項6乃至8のいずれかに記載の情報提示装置。
PCT/JP2009/051132 2008-03-18 2009-01-25 情報提示装置 WO2009116317A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-069554 2008-03-18
JP2008069554A JP2009223767A (ja) 2008-03-18 2008-03-18 情報提示システム

Publications (1)

Publication Number Publication Date
WO2009116317A1 true WO2009116317A1 (ja) 2009-09-24

Family

ID=41090728

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/051132 WO2009116317A1 (ja) 2008-03-18 2009-01-25 情報提示装置

Country Status (2)

Country Link
JP (1) JP2009223767A (ja)
WO (1) WO2009116317A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065284A1 (ja) * 2009-11-26 2011-06-03 楽天株式会社 情報処理装置、端末装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、端末プログラム、プログラムが記録された記録媒体、及び情報提供システム
JP2011113281A (ja) * 2009-11-26 2011-06-09 Rakuten Inc 情報処理装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、及び情報提供システム
JP2011113283A (ja) * 2009-11-26 2011-06-09 Rakuten Inc 情報処理装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、及び情報提供システム
JP2011203975A (ja) * 2010-03-25 2011-10-13 Fujitsu Ltd 表示装置、表示方法及びプログラム
CN102667842A (zh) * 2009-11-26 2012-09-12 乐天株式会社 服务器装置、终端装置、用户关注度计算方法、用户关注度计算程序、终端程序、记录有程序的记录介质及信息提供系统
US8490009B2 (en) 2009-11-26 2013-07-16 Rakuten, Inc. Information processing apparatus, terminal apparatus, content of interest determination method, content of interest determination program, terminal program , recording medium on which program is recorded, and information provision system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838888B2 (ja) * 2012-03-29 2016-01-06 富士通株式会社 ユーザ情報管理装置及びユーザ情報管理方法
JP5939579B2 (ja) 2013-03-19 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation リストを作成する装置、方法およびプログラム
JP6346250B2 (ja) * 2016-11-25 2018-06-20 京セラコミュニケーションシステム株式会社 コンテンツ配信装置およびコンテンツ配信システム
JP2020087022A (ja) * 2018-11-27 2020-06-04 トヨタホーム株式会社 情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182603A (ja) * 2003-12-22 2005-07-07 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2007304719A (ja) * 2006-05-09 2007-11-22 Fuji Xerox Co Ltd 文書利用追跡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182603A (ja) * 2003-12-22 2005-07-07 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2007304719A (ja) * 2006-05-09 2007-11-22 Fuji Xerox Co Ltd 文書利用追跡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOSHINORI HIJIKATA: "Joho Suisen ? Joho Filtering no Tameno User Profiling Gijutsu", JOURNAL OF JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, vol. 19, no. 3, pages 365 - 372 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI427529B (zh) * 2009-11-26 2014-02-21 Rakuten Inc An information processing apparatus, a content determination method, a recording medium for recording a program, and a information providing system
JP2011113281A (ja) * 2009-11-26 2011-06-09 Rakuten Inc 情報処理装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、及び情報提供システム
JP2011113283A (ja) * 2009-11-26 2011-06-09 Rakuten Inc 情報処理装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、及び情報提供システム
CN102667842A (zh) * 2009-11-26 2012-09-12 乐天株式会社 服务器装置、终端装置、用户关注度计算方法、用户关注度计算程序、终端程序、记录有程序的记录介质及信息提供系统
EP2500860A1 (en) * 2009-11-26 2012-09-19 Rakuten, Inc. Server apparatus, terminal apparatus, user's degree of interest calculation method, user's degree of interest calculation program, terminal program, recording medium having program recorded therein, and information providing system
US8490009B2 (en) 2009-11-26 2013-07-16 Rakuten, Inc. Information processing apparatus, terminal apparatus, content of interest determination method, content of interest determination program, terminal program , recording medium on which program is recorded, and information provision system
EP2500860A4 (en) * 2009-11-26 2013-10-09 Rakuten Inc SERVER APPARATUS, TERMINAL, APPARATUS, METHOD FOR CALCULATING USER INTEREST DEGREE, PROGRAM FOR CALCULATING USER INTEREST DEGREE, TERMINAL PROGRAM, RECORDING MEDIUM HAVING PROGRAM RECORDED, AND PROGRAM PROVISION OF INFORMATION
TWI427528B (zh) * 2009-11-26 2014-02-21 Rakuten Inc An information processing apparatus, a content determination method, a recording medium for recording a program, and a information providing system
WO2011065284A1 (ja) * 2009-11-26 2011-06-03 楽天株式会社 情報処理装置、端末装置、関心コンテンツ判定方法、関心コンテンツ判定プログラム、端末プログラム、プログラムが記録された記録媒体、及び情報提供システム
US8677264B2 (en) 2009-11-26 2014-03-18 Rakuten, Inc. Information processing apparatus, terminal apparatus, content of interest determination method, content of interest determination program, terminal program, recording medium on which program is recorded, and information provision system
US9251526B2 (en) 2009-11-26 2016-02-02 Rakuten, Inc. Server apparatus, terminal apparatus, user's degree of interest calculation method, user's degree of interest calculation program, terminal program, recording medium having program recorded therein, and an information providing system
US10169766B2 (en) 2009-11-26 2019-01-01 Rakuten, Inc. Server apparatus, terminal apparatus, user's degree of interest calculation method, user's degree of interest calculation program, terminal program, recording medium having program recorded therein, and an information providing system
JP2011203975A (ja) * 2010-03-25 2011-10-13 Fujitsu Ltd 表示装置、表示方法及びプログラム

Also Published As

Publication number Publication date
JP2009223767A (ja) 2009-10-01

Similar Documents

Publication Publication Date Title
WO2009116317A1 (ja) 情報提示装置
JP5803910B2 (ja) 領域推薦装置、領域推薦方法およびプログラム
US9195372B2 (en) Methods, systems, and computer program products for grouping tabbed portion of a display object based on content relationships and user interaction levels
CN106844635B (zh) 网页中的元素的编辑方法及装置
US11860962B1 (en) System and method for selecting information for display based on past user interactions
US20120166522A1 (en) Supporting intelligent user interface interactions
JP2007109136A (ja) 画像表示制御装置
EP1486899A1 (en) Parts catalog creating system and program therefor
JP2010250795A (ja) 精読率計測装置、クライアント端末、精読率計測システム、精読率計測方法、及びプログラム
TWI457775B (zh) 網址分類管理方法及使用該方法之電子裝置
US20120041946A1 (en) Data search apparatus, control method thereof and computer readable storage medium
JP5277941B2 (ja) 関連商品提示方法、関連商品提示システム、プログラム、記録媒体
JP4447552B2 (ja) 情報提供方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
US20180089154A1 (en) Computer implemented system and method for transforming web content for display on multiple form factors
US20170024792A1 (en) Method for setting up an online shop
US8903817B1 (en) Determining search relevance from user feedback
CN107533544A (zh) 元素标识符生成
JP2010244126A (ja) 小型情報端末向け注目語推定方式および検索方式
JP6068639B2 (ja) ユーザインタフェース検査方法、装置およびプログラム
JP2002149332A (ja) 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体
KR102477841B1 (ko) 상품 검색 장치, 서버 및 검색 시스템의 제어 방법
JP2002175290A (ja) ドキュメントデザイン評価システム、ドキュメントデザイン評価方法、記録媒体
JP2016057896A (ja) 推薦タイミング判断装置、及びプログラム
US20110016380A1 (en) Form editing apparatus, form editing method, and storage medium
JP5248376B2 (ja) 情報配信装置および情報配信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09721707

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09721707

Country of ref document: EP

Kind code of ref document: A1