WO2018088213A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2018088213A1
WO2018088213A1 PCT/JP2017/038471 JP2017038471W WO2018088213A1 WO 2018088213 A1 WO2018088213 A1 WO 2018088213A1 JP 2017038471 W JP2017038471 W JP 2017038471W WO 2018088213 A1 WO2018088213 A1 WO 2018088213A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
viewing
time
display
program
Prior art date
Application number
PCT/JP2017/038471
Other languages
English (en)
French (fr)
Inventor
伊藤 彰彦
高木 剛
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018550129A priority Critical patent/JP7065784B2/ja
Priority to US16/345,343 priority patent/US11164347B2/en
Priority to EP17868517.8A priority patent/EP3541072A4/en
Publication of WO2018088213A1 publication Critical patent/WO2018088213A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/31Arrangements for monitoring the use made of the broadcast services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/66Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and in particular, an information processing device, an information processing method, and a program that can easily check a change in content viewing status and contents at each time. About.
  • the audience rating is an index that shows how many households and people watch programs and commercials.
  • the audience rating includes an audience rating per unit time such as one minute, in addition to the average audience rating and the highest audience rating for all time periods of programs and commercials.
  • the audience rating per unit time is used as a reference for program organization, for example. Therefore, for example, when the audience rating for each unit time is displayed in a graph, it is preferable that the contents of each time zone can be confirmed along with the change in the audience rating.
  • the present technology has been made in view of such a situation, and makes it possible to easily check the change in the viewing state of the content and the contents at each time.
  • An information processing apparatus acquires a viewing log acquisition unit that acquires a viewing log of content including at least one of a moving image and audio, and acquires display data that represents details of each time of the content Part, a chart representing the transition of the viewing status of the content specified based on the viewing log, and the display representing the content of the content at each time in a time zone in which the transition of the viewing status is represented by the chart
  • a display control unit for displaying data on the same screen.
  • the acquisition unit can acquire subtitle data displayed in accordance with the moving image of the content as the display data.
  • the display control unit can display a graph representing the transition of the viewing situation as the chart, and can display at least a part of the caption at the time corresponding to each plot position in the vicinity of each plot position.
  • the display control unit can display the keywords extracted from the caption at the time corresponding to each plot position.
  • the display control unit can display the subtitles arranged in the display order in a second display area that is different from the first display area that is the display area of the chart, constituting the screen.
  • a detailed information acquisition unit that acquires detailed information of the content can be further provided.
  • the display control unit can display the detailed information in a third display area constituting the screen.
  • the display control unit can display a graph for each provider representing a transition of the viewing status of the content provided by each of a plurality of providers according to a predetermined schedule.
  • the display control unit can display at least a part of the subtitles in the vicinity of each plot position of a predetermined graph of the provider selected by the viewer of the screen.
  • the display control unit can display at least a part of the subtitles in the vicinity of the plot position having the highest value representing the viewing status among the plot positions at each time in the graphs of the plurality of providers. .
  • the display control unit can display the chart by switching the unit time representing the transition of the viewing situation according to the operation by the viewer of the screen.
  • the display control unit can transmit the screen data to an external device connected via a network and display the screen on the display of the external device.
  • the viewing log acquisition unit can acquire the viewing log transmitted from a receiver that receives and reproduces the content used by the viewer of the content.
  • the acquisition unit can acquire the subtitle data extracted from the content and transmitted from the receiver in a receiver that receives the content.
  • a viewing log of content including at least one of a moving image and audio is acquired, and display data representing details of each time of the content is acquired.
  • a chart representing the transition of the viewing status of the content specified based on the viewing log, and the display data representing the content of the content at each time in a time zone in which the transition of the viewing status is represented by the chart are displayed on the same screen.
  • FIG. 1 It is a figure which shows the structural example of an information provision server. It is a block diagram which shows the other structural example of an information provision server. It is a figure which shows the example of a display of a monitoring screen. It is a figure which shows the example of a display of a monitoring screen. It is a figure which shows the example of a display of a monitoring screen. It is a figure which shows the example of a display of a monitoring screen.
  • FIG. 1 is a diagram illustrating a configuration example of an information providing system according to an embodiment of the present technology.
  • the information providing system in FIG. 1 is a system that allows broadcasters and other operators to view the viewing status of content such as programs and commercials including video and audio in almost real time.
  • the information providing system in FIG. 1 can be said to be a monitoring system that enables monitoring of the viewing state of content.
  • “Browsing in real time” here means that the viewing status of a program can be viewed while a program of a predetermined time such as a one-hour program is being provided. There is a predetermined time difference from the provision of the contents of a program at a certain time until the viewing status at that time can be browsed by the amount of counting of viewing logs.
  • the broadcasting station monitors the viewing status of a program provided according to a predetermined schedule.
  • the monitoring status of the viewing status of content other than a program consisting of video and audio is also described.
  • the program may be provided not only via a transmission path using broadcast waves but also via a transmission path using communication such as the Internet.
  • the information processing system shown in FIG. 1 includes an information providing server 1, broadcast receivers 2-1 to 2-3, and information browsing devices 3-1 and 3-2 connected via a network 4 such as the Internet. Composed.
  • the network 4 may be in any form of a wired network, a wireless network, and a network that combines wired and wireless.
  • Each of the broadcast receivers 2-1 to 2-3 and the information browsing devices 3-1 and 3-2 can communicate with the information providing server 1 via the network 4.
  • Broadcast receivers 2-1 to 2-3 are devices capable of receiving programs provided by broadcast stations, such as television receivers, recording devices, and PCs. A viewer who is a user of the broadcast receivers 2-1 to 2-3 views a program received and reproduced by the broadcast receivers 2-1 to 2-3 by selecting a predetermined channel.
  • each of the broadcast receivers 2-1 to 2-3 transmits a viewing log to the information providing server 1.
  • the viewing log includes, for example, identification information such as a channel number representing a channel being received and a program ID representing a program being viewed along with time information.
  • Broadcast receivers 2-1 to 2-3 are equipped with an application that repeatedly transmits a viewing log every predetermined time.
  • This application is provided by a business operator who manages the information providing server 1, for example.
  • the information browsing devices 3-1 and 3-2 are information processing devices equipped with a web browser, such as a PC, a tablet terminal, and a smartphone.
  • the information browsing devices 3-1 and 3-2 are prepared in different broadcasting stations and are handled by the manager of the broadcasting station.
  • the administrator of the broadcasting station operates the information browsing devices 3-1 and 3-2 to access the Web site managed by the information providing server 1, and the viewing status of the program provided by the broadcasting station and other stations provide Browse the viewing status of the program.
  • broadcast receivers 2-1 to 2-3 are shown as broadcast receivers used for viewing a program. However, in reality, more broadcast receivers are connected to the network 4. Connected to. Similarly, two information browsing devices 3-1 and 3-2 are shown as information browsing devices used for viewing status monitoring. In reality, however, more information browsing devices are connected to the network 4. Connected to.
  • the broadcast receiver 2 when it is not necessary to distinguish between the broadcast receivers 2-1 to 2-3 as appropriate, they are collectively referred to as the broadcast receiver 2.
  • the information browsing device 3-1 and the information browsing device 3-2 When there is no need to distinguish between the information browsing device 3-1 and the information browsing device 3-2, they are collectively referred to as the information browsing device 3.
  • the information providing server 1 is a server managed by the manufacturer of the broadcast receiver 2, for example.
  • the information providing server 1 receives the viewing log transmitted from the broadcast receiver 2 and totals the viewing status of each program being broadcast.
  • the viewing status of the program is represented by, for example, the number of viewers who are watching the program.
  • the viewing rate may be obtained by the number of viewers with respect to the total number of viewers, and the viewing state may be represented by the viewing rate.
  • the value representing the viewing status is arbitrary as long as it is a value obtained based on the viewing log.
  • the information providing server 1 receives a program being provided by each broadcasting station and extracts caption data of each program.
  • the information providing server 1 also has a function as a broadcast receiver.
  • FIG. 2 is a diagram showing an example of caption data.
  • caption data is configured by associating text data with a display time.
  • the subtitle data shown in FIG. 2 is subtitle data of a program broadcast on “September 12, 2016”. For example, at 21:00:21 (“21:00:21”), “>> , News ⁇ ⁇ ⁇ "is displayed.
  • the information providing server 1 generates a screen displaying subtitles at each time of the program as a monitoring screen used for browsing the viewing status of the program, together with a graph representing the transition (time-series change) of the viewing number of the program.
  • the information providing server 1 displays the monitoring screen generated in this way on the display of the accessed information browsing apparatus 3.
  • FIG. 3 is a diagram illustrating a display example of the monitoring screen.
  • the monitoring screen is basically configured by forming a viewing status display field 11 which is a horizontally long rectangular display area in the substantially upper half, and forming a program detail display field 12 and a caption display field 13 below. Is done. Below the viewing status display column 11, a broadcast station selection column 21, a time display column 22, a unit time selection column 23, a display format selection column 24, and operation buttons 25 are displayed side by side.
  • the operation of the monitoring screen is performed, for example, by using a mouse provided in the information browsing device 3 or by directly touching the screen when a touch panel is provided on the display of the information browsing device 3.
  • a viewing number graph G1 which is a line graph representing a change in the number of viewings of a program provided by a certain broadcasting station, is displayed.
  • the horizontal axis of the viewing status display column 11 represents time, and the vertical axis represents the number of views.
  • the number of views of the program is obtained by counting the viewing logs transmitted from the broadcast receiver 2.
  • NNN general is selected as the broadcasting station, and “3 minutes” is selected as the unit time.
  • the viewing number graph G1 in the viewing status display column 11 shows “20:03” for a program broadcast by “NNN General” with “20:03:00” at the left end and “21:00:00” as the current time at the right end. The number of views at each time every three minutes in the time zone from “03:00” to “21:00:00” is shown.
  • the display in the viewing status display column 11 is updated every unit time so that the number of views at the current time counted immediately before is always displayed at the right end.
  • the number of views at each time in the view number graph G1 shown in FIG. 3 is displayed shifted in the left direction.
  • the administrator of the information browsing apparatus 3 can confirm the change in the viewing number of the selected broadcasting station in real time.
  • caption data is extracted from the data of each program, and the display of the caption on the monitoring screen is performed using the extracted caption data.
  • Each character displayed on the other plot positions also represents a part of the caption displayed at the time corresponding to each plot position or during the unit time including the time. There is a limit to the number of characters that can be displayed, and characters that cannot be displayed are represented by "".
  • a pop-up window 51 is displayed over the monitoring screen as shown in FIG.
  • the window 51 displays subtitles (subtitles within a unit time including the corresponding time) displayed at the time corresponding to the pressed position, including characters that cannot be displayed on the viewing status display field 11.
  • subtitles subtitles within a unit time including the corresponding time
  • the display in the subtitle display column 13 is updated so that the subtitle corresponding to the pressed time is displayed in the top row.
  • the subtitle “and is not well known” displayed in the window 51 of FIG. 4 is displayed near or above the plot position of “20:57:00” in the viewing status display column 11. This is a subtitle “20:57:00” that is displayed when the current subtitle is pressed.
  • the administrator of the information browsing device 3 confirms not only the number of viewings at each time but also the rough contents at each time. be able to.
  • FIG. 5 is an enlarged view showing the vicinity of the right end of the viewing status display column 11 of FIG.
  • Boundary lines L1 and L2 indicated by broken lines are lines that are actually displayed on the viewing status display column 11, and indicate the timing of program switching.
  • the boundary line L1 displayed at the position “20:45:00” indicates the start time of the program with the program name “Metropolitan area news”
  • the broken line L2 displayed at the position “21:00:00” Indicates the start time of the program with the program name “News ⁇ ⁇ ⁇ ”.
  • the program names of programs started at that time are displayed in a superimposed manner.
  • the lines constituting the viewing number graph G1 are displayed using different lines for each program.
  • the line of the viewership graph G1 after “20:45:00” indicated by the boundary line L1 is indicated by a thicker line than the previous time line. Indicates that it is displayed.
  • the number of views is expressed for each program by changing the line type, color, thickness, and the like. A line representing the number of views of a program being broadcast may be highlighted.
  • the broadcast station selection field 21 displays the name of the currently selected broadcast station.
  • a viewing number graph G 1 representing the number of viewings of the program of the broadcasting station displayed in the broadcasting station selection column 21 is displayed in the viewing status display column 11.
  • the administrator of the information browsing apparatus 3 selects a predetermined broadcast station from the list of broadcast stations displayed when the downward triangle on the right end of the broadcast station selection field 21 is pressed, and views the program of the selected broadcast station.
  • a viewing number graph representing the rate can be displayed in the viewing status display column 11.
  • the reference time is displayed.
  • the reference time is set by, for example, pressing a position on the viewing status display field 11, and the time corresponding to the pressed position is set as the reference time.
  • the display of the viewing status display column 11 is controlled so that the number of views at the reference time is displayed at the left end.
  • the program title and broadcast time displayed on the viewing status display column 11 are information on the program broadcast at the reference time.
  • a viewing number graph G 1 representing the number of views per unit time displayed in the unit time selection field 23 is displayed in the viewing state display field 11.
  • the administrator of the information browsing device 3 displays a plurality of unit times such as “1 minute”, “3 minutes”, and “5 minutes” displayed when the downward triangle on the right end of the unit time selection field 23 is pressed.
  • a predetermined unit time can be selected from the above, and the granularity of changes in the number of views can be set.
  • the display mode being selected is displayed.
  • the display mode for example, a subtitle mode and a keyword mode are prepared.
  • the subtitle mode is a mode in which the subtitles at each time are displayed as they are in the vicinity of each plot position in the viewing status display column 11 as they are by a predetermined number of characters in order from the first character.
  • the keyword mode is a mode in which keywords extracted by analyzing subtitles are displayed in the vicinity of each plot position in the viewing status display column 11.
  • the administrator of the information browsing apparatus 3 can select either the subtitle mode or the keyword mode by pressing the downward triangle on the right end of the display format selection field 24.
  • FIG. 3 shows an example of a monitoring screen when the subtitle mode is set.
  • the operation buttons 25 are composed of a plurality of buttons such as buttons operated when the time zone of the viewing status display column 11 is switched.
  • the broken line surrounding the operation button 25 is not a line that is actually displayed.
  • the program detail display column 12 below the monitoring screen, detailed information of the program broadcast at the reference time is displayed.
  • the detailed information displayed in the program detail display column 12 is information acquired from SI (Service Information) such as EPG (Electronic Program Guide) or program guide data for the Internet, for example.
  • SI Service Information
  • EPG Electronic Program Guide
  • Information such as keywords is included.
  • the subtitles displayed during the unit time are collectively displayed in the display order.
  • the display of the caption display column 13 is updated with the passage of time so that, for example, a caption for a unit time including the current time is displayed at the top.
  • the subtitles of unit time before the unit time including the current time are arranged below the subtitle display field 13.
  • the caption of the program is displayed as additional information of the viewing number graph representing the change in the viewing number.
  • the manager of the information browsing apparatus 3 can easily confirm the reason from the subtitle when the number of viewings changes greatly. If only a graph showing the change in the number of views is displayed, even if there is a large change in the number of views, it is difficult to confirm the reason without actually watching the program. It is possible to infer from subtitles.
  • FIG. 6 is a diagram showing an example of a monitoring screen when the keyword mode is set.
  • the program broadcasted by “NNN General” is viewed every 3 minutes in the time zone from “21:12:00” to “22:09:00”.
  • a viewing number graph G2 indicating the number is displayed. For example, the letters “Oike” and “Toyosu” are displayed above the plot position of “21:12:00” on the left end. “Oike” and “Toyosu” are keywords extracted from unit time subtitles including “21:12:00”.
  • Each character displayed above other plot positions also represents a keyword extracted from subtitles displayed during the unit time including that time.
  • the keywords included in the program detail display field 12 may be highlighted.
  • the keywords extracted by analyzing the subtitles are displayed in the vicinity of each plot position in the viewing status display column 11 instead of displaying the subtitles in order from the first character. Is done.
  • the administrator of the information browsing apparatus 3 can more easily confirm the contents of the program at each time.
  • the keywords included in the subtitles displayed in the subtitle display field 13 are highlighted as shown in FIG.
  • FIG. 6 the fact that “Oike” shown as the keyword K1 and “Toyosu” shown as the keyword K2 are displayed in white letters indicate that the keyword K1 and the keyword K2 are highlighted.
  • the highlighting is performed by changing the character color, adding an underline, changing the background color, and the like.
  • the keywords extracted from the subtitles may be displayed side by side in the subtitle display column 13 together with the display time instead of the entire subtitles within the unit time.
  • FIG. 7 is a block diagram illustrating a hardware configuration example of the information providing server 1.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 105 is further connected to the bus 104. To the input / output interface 105, a broadcast receiving unit 106, an input unit 107, an output unit 108, a storage unit 109, a communication unit 110, and a drive 111 are connected.
  • the broadcast receiving unit 106 receives a broadcast wave signal from an antenna (not shown) and outputs, for example, data of all programs being broadcast.
  • the input unit 107 is composed of a keyboard, a mouse, and the like, and outputs a signal representing the content of the operation by the administrator of the information providing server 1.
  • the output unit 108 is composed of a recording medium such as a hard disk or a non-volatile memory, and stores various data used for displaying a monitoring screen, such as a viewing log, detailed program information, and caption data.
  • the communication unit 110 includes a network interface and performs communication with the broadcast receiver 2 and the information browsing device 3.
  • the communication unit 110 receives program data transmitted from a server managed by the broadcast station of the program when the program is provided via the communication transmission path.
  • the drive 111 writes data to the removable medium 112 or reads data stored in the removable medium 112.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the information providing server 1. At least a part of the functional units shown in FIG. 8 is realized by the CPU 101 shown in FIG. 7 executing a predetermined program.
  • a viewing log collection unit 121, a viewing log DB 122, a program information acquisition unit 123, a program information DB 124, a caption acquisition unit 125, an additional information DB 126, a data shaping / integration unit 127, and a display control unit 128 are realized. Is done.
  • the viewing log DB 122, the program information DB 124, and the additional information DB 126 are realized in the storage unit 109.
  • the viewing log collection unit 121 acquires the viewing log transmitted from the broadcast receiver 2 and received by the communication unit 110.
  • the viewing log collection unit 121 stores the acquired viewing log in the viewing log DB 122.
  • the program information acquisition unit 123 acquires program information added to the program data supplied from the broadcast receiving unit 106. As described above, the program information includes detailed information such as an outline of the program and performers.
  • the program information acquisition unit 123 functions as an acquisition unit that acquires detailed information of a program.
  • the program information acquisition unit 123 stores the acquired program information in the program information DB 124.
  • the caption acquisition unit 125 extracts and acquires caption data from the program data supplied from the broadcast receiving unit 106.
  • the caption data is text data representing the contents of each time of the program.
  • the caption acquisition unit 125 functions as an acquisition unit that acquires text data representing the contents of each time of the program.
  • the caption acquisition unit 125 stores the caption data acquired from the program data in the additional information DB 126.
  • the additional information DB 126 stores caption data of all broadcast programs.
  • the program data received by the communication unit 110 is supplied to the program information acquisition unit 123 and the caption acquisition unit 125.
  • the same processing as that for the program data provided via the broadcast wave transmission path is performed, and the acquisition of program information and the acquisition of caption data are performed. .
  • the data shaping / integration unit 127 totals the viewing logs stored in the viewing log DB 122 and calculates the number of views of the program of each broadcasting station.
  • the data shaping / integration unit 127 is based on the viewing number of programs of each broadcasting station, the detailed information of each program stored in the program information DB 124, and the caption data of each program stored in the additional information DB 126. To generate the monitoring screen display data.
  • the data shaping / integration unit 127 outputs the generated monitoring screen display data to the display control unit 128.
  • the display control unit 128 controls the communication unit 110 to communicate with the web browser 3A of the information browsing device 3 and transmits display data of the monitoring screen to the web browser 3A.
  • the display control unit 128 is realized by the CPU 101 executing a monitoring application that controls display of the monitoring screen.
  • FIG. 9 is a block diagram illustrating a configuration example of the data shaping / integrating unit 127.
  • the data shaping / integration unit 127 includes a viewing state detection unit 151, a caption analysis unit 152, and a display data generation unit 153.
  • the viewing log read from the viewing log DB 122 is supplied to the viewing status detection unit 151, and the program information read from the program information DB 124 is supplied to the display data generation unit 153.
  • the caption data read from the additional information DB 126 is supplied to the caption analysis unit 152 and the display data generation unit 153.
  • the viewing status detection unit 151 aggregates the viewing logs read from the viewing log DB 122 and repeatedly calculates the number of viewings of the program of each broadcasting station. For example, the viewing status detection unit 151 calculates the number of views of all broadcast programs in real time. The viewing state detection unit 151 outputs the information on the calculated number of views to the display data generation unit 153.
  • the caption analysis unit 152 analyzes the caption data read from the additional information DB 126 and extracts keywords from the captions at each time.
  • the caption analysis unit 152 outputs the extracted keywords to the display data generation unit 153 together with the time information of the captions from which the keywords are extracted.
  • the keywords extracted by the caption analysis unit 152 are used, for example, when the keyword mode is set as the display mode of the monitoring screen.
  • the display data generation unit 153 generates display data for the monitoring screen by associating the number of views at each time, program information, and subtitles including keywords for each program of each broadcast station, and outputs the display data to the display control unit 128.
  • step S1 the viewing log collection unit 121 acquires the viewing log transmitted from the broadcast receiver 2. Collection of the viewing log by the viewing log collection unit 121 is repeatedly performed while the processing of FIG. 10 is being performed.
  • step S2 the viewing status detection unit 151 of the data shaping / integration unit 127 totals the viewing logs and calculates the number of views of the program of each broadcasting station.
  • step S3 the program information acquisition unit 123 acquires program information added to the program data received by the broadcast reception unit 106.
  • step S4 the caption acquisition unit 125 extracts and acquires caption data from the program data received by the broadcast receiving unit 106.
  • the caption acquisition unit 125 acquires caption data of all programs.
  • step S5 the caption analysis unit 152 analyzes the caption data of each program, and extracts keywords from the captions at each time.
  • step S6 the display data generation unit 153 generates display data for the monitoring screen by associating the number of views at each time, program information, and subtitles including keywords for each program of each broadcast station.
  • step S ⁇ b> 7 the display control unit 128 transmits, to the information browsing device 3, monitoring screen data in which the number of views at each time, program information, and subtitle information including keywords are arranged according to the settings of the administrator of the information browsing device 3. To display the monitoring screen.
  • the processing of each of the above steps is appropriately repeated in parallel with or before or after the processing of other steps.
  • the monitoring screen as described with reference to FIG. 3 or the like is displayed on the display of the information browsing device 3, whereby the administrator of the information browsing device 3 can change the number of views of a program of a predetermined broadcast station. In addition, the contents of each time can be confirmed in real time.
  • Second Embodiment (Example in which caption extraction is performed on the receiver side) >>
  • extraction of subtitles for display on the monitoring screen is performed in the information providing server 1, but may be performed in the broadcast receiver 2.
  • the caption data extracted by the broadcast receiver 2 is transmitted to the information providing server 1 and used for displaying a monitoring screen.
  • FIG. 11 is a diagram showing a configuration example of the information providing server 1 when caption extraction is performed in the broadcast receiver 2.
  • a caption extraction unit 2A is realized in the broadcast receiver 2 of FIG. 11 constituting the information providing system.
  • the caption extraction unit 2 ⁇ / b> A extracts caption data from the program data received by the broadcast receiver 2 and transmits it to the information providing server 1.
  • the program from which caption data is to be extracted may be a program that the user of the caption extraction unit 2A is viewing or may not be viewing.
  • the broadcast receiver 2 from which caption data is extracted may be a receiver that is used for viewing a program and transmits a viewing log to the information providing server 1, or a receiver that is used for viewing a program. May be other different receivers.
  • the caption acquisition unit 125 of the information providing server 1 controls the communication unit 110 to acquire the caption data transmitted from the broadcast receiver 2 and store it in the additional information DB 126.
  • the additional information DB 126 stores caption data of all broadcast programs.
  • processing similar to the processing described with reference to FIG. 10 is performed except for processing related to acquisition of caption data.
  • subtitle data extraction but also viewing log collection and program information acquisition can be performed by another device different from the information providing server 1 as appropriate.
  • the broadcast receiving unit 106 when the broadcast receiving unit 106 is not provided in the information providing server 1, at least the process of extracting caption data and the process of acquiring program information included in the broadcast wave signal are performed via the information providing server 1 and the network 4. This is performed in an external device connected to each other.
  • FIG. 12 is a block diagram showing another configuration example of the information providing server 1.
  • a voice analysis unit 161 and an image analysis unit 162 are provided in addition to the configuration in FIG.
  • the program data received by the broadcast receiving unit 106 is also supplied to the audio analyzing unit 161 and the image analyzing unit 162.
  • the audio analysis unit 161 analyzes audio data included in the program data, and converts the audio of the program into text data.
  • the text data obtained by converting the sound at each time of the program can be said to be text data representing the contents at each time of the program.
  • the voice analysis unit 161 outputs the text data obtained by converting the voice to the additional information DB 126 together with information on the time at which each voice is output, and stores it.
  • the image analysis unit 162 analyzes video data included in program data, and recognizes characters displayed as telops in each frame of the program video. Characters recognized by the image analysis unit 162 include numbers and symbols. Text data obtained by converting the telop at each time of the program can also be said to be text data representing the contents at each time of the program. The image analysis unit 162 outputs text data representing the recognition result to the additional information DB 126 together with information on the time at which each telop is displayed, and stores it.
  • the data shaping / integration unit 127 reads the text data obtained by converting the sound at each time from the additional information DB 126 and displays it in the vicinity of the plot position of the viewing number graph. In addition, the data shaping / integration unit 127 displays text data obtained by converting the audio at each time on the caption display field 13.
  • the data shaping / integration unit 127 reads the text data obtained by recognizing the telop at each time from the additional information DB 126 when the monitoring screen is displayed, and displays it in the vicinity of the plot position of the viewing number graph. In addition, the data shaping / integration unit 127 displays the text data obtained by recognizing the telop at each time side by side in the caption display field 13.
  • text data other than subtitles may be used as text data displayed on the monitoring screen together with the viewing number graph representing the change in the viewing number.
  • Text data input as program metadata by a person who actually viewed the program may be used to display the monitoring screen.
  • text data to which time is added is transmitted from the device operated by the viewer of the program to the information providing server 1 and is acquired by the caption acquisition unit 125.
  • text data posted by a viewer who is a user of the broadcast receiver 2 to SNS (Social Networking Service) or the like may be used for displaying the monitoring screen.
  • text data to which time is added is transmitted from the device managing the website of the SNS to the information providing server 1 and acquired by the caption acquisition unit 125.
  • the information providing server 1 for example, text data posted to SNS is analyzed, keywords at each time are extracted, and displayed on the monitoring screen.
  • the administrator of the information browsing device 3 who is the viewer of the monitoring screen may select which type of text data among the plurality of text data as described above is displayed on the monitoring screen. .
  • display data representing the contents of each time of a program it is possible to use a thumbnail image generated by capturing a scene at each time or an image generated by cutting out a character (telop) portion in a moving image. . Since it is not necessary to analyze the image and recognize the character, even if the character displayed as a telop is a decorative character or the like, it is possible to express the contents of each time of the program.
  • various types of information such as image data as well as text data can be used as display data representing the contents of each time of the program.
  • FIG. 13 is a diagram illustrating another display example of the monitoring screen.
  • the monitoring screen in FIG. 13 is a screen that can display a viewing number graph of a plurality of broadcasting stations.
  • the same reference numeral is given to the same configuration as the configuration of the monitoring screen illustrated in FIG. 3. The overlapping description will be omitted as appropriate.
  • the viewing number graphs G11, G12, and G13 represent changes in the number of viewings of the programs of the broadcasting stations A, B, and C, which are different broadcasting stations selected by the administrator of the information browsing device 3, respectively.
  • the viewing number graphs G11, G12, and G13 are displayed using different colors, different shape plots, and different types of lines.
  • captions are displayed only in the vicinity of the plot position of the viewing number graph G11, and no caption is displayed in the vicinity of the plot positions of the viewing number graph G12 and the viewing number graph G13.
  • the administrator of the information browsing apparatus 3 can select which broadcast station's subtitles are to be displayed on the viewing status display column 11.
  • “Xxxx” shown in the vicinity of the plot position in the viewing number graph G11 represents a predetermined character constituting the caption.
  • subtitle display columns 13-1 to 13-3 which are subtitle display areas of programs of the broadcasting stations A, B, and C, are formed side by side.
  • the subtitles of the programs of each broadcasting station are displayed in the display order.
  • the subtitle display fields 13-1 to 13-3 are displayed as time elapses so that the subtitles of the unit time including the current time are displayed at the top, as in the subtitle display field 13 of FIG. Updated.
  • Broadcast station names are displayed above the caption display columns 13-1 to 13-3, and check boxes 202-1 to 202-3 are displayed on the left side of the broadcast station names.
  • a display target selection column 201 used for selecting the type of subtitle to be displayed is displayed above the check box 202-1.
  • the administrator of the information browsing apparatus 3 selects a predetermined subtitle type to be displayed from the display target list displayed when the downward triangle on the right end of the display target selection field 201 is pressed, and selects the selected type. Can be displayed in the viewing status display column 11.
  • Checked station is selected as the type of caption to be displayed. That the type of subtitles to be displayed is “Checked station” indicates that the subtitles of a program of a broadcasting station whose check box is checked are displayed.
  • the viewing status display column 11 plots a viewing number graph G12 representing the number of viewings of the program of the broadcasting station B. Subtitles at each time are displayed only near the position.
  • the subtitles of the programs of the broadcasting stations A, B, and C are displayed in the viewing status display column 11.
  • FIG. 14 is a diagram showing a display example of the monitoring screen when “top station” is selected as the type of caption to be displayed.
  • the subtitle type to be displayed is “top station” means that the subtitle of the program with the largest number of views is displayed at each time.
  • the viewing number graph representing the change in the viewing number of programs of a plurality of broadcasting stations side by side.
  • the administrator of the information browsing device 3 can compare changes in the number of programs viewed by each broadcasting station while checking the contents of the programs.
  • the number of viewing graphs displayed side by side is not limited to three, but may be two or four or more.
  • FIG. 15 is a diagram showing a display example of the monitoring screen.
  • the subtitles of the programs of the respective broadcasting stations are aligned with reference to the display time as shown in FIG. It may be displayed in the columns 13-1 to 13-3.
  • the subtitle “21:00:00” of the program of each broadcasting station is displayed at the top of the subtitle display columns 13-1 to 13-3, and the height is indicated by a broken line L11 below the subtitle.
  • the subtitles “20:57:00” of the programs of each broadcasting station are displayed.
  • the administrator of the information browsing device 3 can easily compare the subtitles of the programs of the respective broadcasting stations.
  • subtitles are displayed as additional information indicating the contents of each time of the program, other information may be displayed.
  • peripheral information related to the content of the program can be displayed in accordance with the viewing number graph. If the display area of the additional information is small, it may be displayed in summary.
  • the display of the viewing number graph may be automatically switched according to the occurrence of a predetermined event, instead of simply proceeding with the passage of time.
  • the number of views it is also possible to stop the progress of the graph.
  • the caption at the time corresponding to the designated position may be displayed in detail.
  • the method of bundling subtitles displayed in the viewing status display column 11 and the subtitle display column 13 may be changed.
  • a subtitle including the input keyword is searched, and a viewing time graph including a display time of the searched subtitle is displayed in the viewing status display field 11. You may make it do.
  • Such a search function enables trend analysis, for example.
  • the unit of one scale on the vertical axis of the viewing status display field 11 may be automatically adjusted according to the number of views.
  • subtitles displayed in addition to the viewing number graph may be displayed by changing the position according to the number of characters, or may be displayed by changing the display amount.
  • the program title may be displayed near the viewing graph, or the line color may be changed for each program. Further, the display format of the numbers representing the time may be changed for each program, or the color of the background area of the viewing number graph may be changed for each program.
  • Matching of keywords extracted from subtitles and detailed program information may be performed, and the display may be changed according to the matching result.
  • the keyword displayed in addition to the viewing number graph is a person name
  • the viewer can distinguish whether the person is a performer of the program or just a topic. It becomes possible.
  • the appearance frequency of keywords such as names may be displayed in ranking. For example, in a drama program, a role name is displayed as a speaker during subtitles. In this case, the appearance frequency may be calculated by associating the speaker with the actual name.
  • the display range of the view number graph may be moved so that the time corresponding to the pressed position is displayed at the left end as the reference time. Further, the subtitle characters at the reference time may be displayed in different colors from other characters.
  • a keyword When a keyword is selected, it may be highlighted by changing the color of the keyword included in the caption.
  • the display When displaying the viewing number graph of a plurality of broadcasting stations, the display may be changed according to the order of viewing number, such as changing the thickness of the line or changing the color. Further, only the viewing number graph of one selected broadcasting station may be displayed with emphasis.
  • an alert is output at a predetermined timing, such as when the peak viewing number of a program from one broadcasting station is synchronized with the peak viewing number of a program from another broadcasting station. You may make it do.
  • the content of the program corner may be estimated from the subtitles and keywords, and the estimated content may be displayed.
  • the viewing graph is displayed on the monitoring screen and the subtitles are displayed on the HMD. You may make it do.
  • CM complementary metal-oxide-semiconductor
  • the display of the view number graph can be controlled according to the corrected time, such as delaying the update of the view number.
  • Audio analysis may be performed to correct and display the caption time.
  • this technology may be used for monitoring the viewing status of audio content such as radio broadcasts, or the viewing status of content consisting only of video, such as an advertisement using video on a train.
  • the present technology may be used for monitoring. That is, the content that is subject to viewing status monitoring can be content including at least one of a moving image and audio.
  • a line graph is displayed on the monitoring screen as a chart representing the viewing situation, but other charts such as a bar graph and a table of the number of views may be used.
  • the monitoring screen is displayed by the Web browser 3A, but may be displayed by another browsing application. Although the viewing situation is viewed in real time using the monitoring screen, the monitoring screen may be used to view and analyze the accumulated viewing situation.
  • Program Example The series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in a computer incorporated in dedicated hardware or a general-purpose personal computer.
  • the program to be installed is provided by being recorded on the removable medium 112 shown in FIG. 7 made of an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), semiconductor memory, or the like. Further, it may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting.
  • the program can be installed in advance in the ROM 102 or the storage unit 109.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or may be processed in parallel or at a necessary timing such as when a call is made. It may be a program to be performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology may have the following configurations.
  • a viewing log acquisition unit that acquires a viewing log of content including at least one of video and audio;
  • An acquisition unit for acquiring display data representing the content of each time of the content;
  • a chart representing the transition of the viewing status of the content specified based on the viewing log, and the display data representing the content of the content at each time in a time zone in which the transition of the viewing status is represented by the chart.
  • An information processing apparatus comprising: a display control unit that displays on the same screen.
  • the display control unit displays a graph representing the transition of the viewing situation as the chart, and displays at least a part of the subtitles at a time corresponding to each plot position in the vicinity of each plot position.
  • the information processing apparatus described. (4) A subtitle analysis unit that analyzes the subtitles and extracts keywords; The information processing apparatus according to (3), wherein the display control unit displays a keyword extracted from the caption at a time corresponding to each plot position.
  • the display control unit causes the subtitles to be arranged and displayed in a display order in a second display area that is different from the first display area that is the display area of the chart constituting the screen. In the (3) or (4) The information processing apparatus described.
  • the display control unit displays at least a part of the subtitles in the vicinity of the plot position having the highest value representing the viewing status among the plot positions at each time of the plurality of provider graphs.
  • the information processing apparatus described in 1. The display control unit causes the chart to be displayed by switching a unit time representing the transition of the viewing situation in accordance with an operation by a viewer of the screen.
  • the display according to any one of (1) to (9).
  • Information processing device. The display control unit transmits the screen data to an external device connected via a network, and causes the display of the external device to display the screen. Any one of (1) to (10)
  • the viewing log acquisition unit acquires the viewing log transmitted from a receiver that receives and reproduces the content used by a viewer of the content.
  • any one of (1) to (11) The information processing apparatus described in 1.
  • (13) The information processing apparatus according to (2), wherein the acquisition unit acquires the caption data extracted from the content and transmitted from the receiver in a receiver that receives the content.
  • (14) Get a viewing log of content that contains at least one of video and audio, Obtaining display data representing the content of each time of the content; A chart representing the transition of the viewing status of the content specified based on the viewing log, and the display data representing the content of the content at each time in a time zone in which the transition of the viewing status is represented by the chart.
  • An information processing method including steps for displaying on the same screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本技術は、コンテンツの視聴状況の変化と各時刻の内容を容易に確認することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 本技術の一側面の情報処理装置は、動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得し、コンテンツの各時刻の内容を表す表示データを取得し、視聴ログに基づいて特定されるコンテンツの視聴状況の遷移を表す図表と、図表によって視聴状況の遷移が表される時間帯の各時刻のコンテンツの内容を表す表示データとを同じ画面に表示させる。本技術は、コンテンツの視聴状況のモニタリングに用いられるシステムに適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、コンテンツの視聴状況の変化と各時刻の内容を容易に確認することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
 番組やCMがどのくらいの世帯や人に見られているのかを示す指標として視聴率がある。視聴率には、番組やCMの全時間帯における平均視聴率、最高視聴率の他に、1分間などの単位時間毎の視聴率がある。
 例えば放送局側では、単位時間毎の視聴率の変化を見ることにより、番組やCMの中でも、特にどの時間帯が注目されていたのかを把握することが可能になる。
特開2008-136210号公報
 単位時間毎の視聴率は例えば番組の編成の参考として用いられる。従って、例えば単位時間毎の視聴率をグラフで表示する場合、視聴率の変化とともに、各時間帯の内容までを確認できるようにした方が好ましい。
 本技術はこのような状況に鑑みてなされたものであり、コンテンツの視聴状況の変化と各時刻の内容を容易に確認することができるようにするものである。
 本技術の一側面の情報処理装置は、動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得する視聴ログ取得部と、前記コンテンツの各時刻の内容を表す表示データを取得する取得部と、前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる表示制御部とを備える。
 前記取得部には、前記コンテンツの動画に合わせて表示される字幕のデータを前記表示データとして取得させることができる。
 前記表示制御部には、前記視聴状況の遷移を表すグラフを前記図表として表示させ、各プロット位置の近傍に、各プロット位置に対応する時刻の前記字幕の少なくとも一部を表示させることができる。
 前記字幕を解析し、キーワードを抽出する字幕解析部をさらに設けることができる。この場合、前記表示制御部には、各プロット位置に対応する時刻の前記字幕から抽出されたキーワードを表示させることができる。
 前記表示制御部には、前記画面を構成する、前記図表の表示領域である第1の表示領域とは異なる第2の表示領域に前記字幕を表示順に並べて表示させることができる。
 前記コンテンツの詳細情報を取得する詳細情報取得部をさらに設けることができる。この場合、前記表示制御部には、前記画面を構成する第3の表示領域に前記詳細情報を表示させることができる。
 前記表示制御部には、予め決められたスケジュールに従って複数の提供者のそれぞれによって提供された前記コンテンツの前記視聴状況の遷移を表す、前記提供者毎のグラフを表示させることができる。
 前記表示制御部には、前記画面の閲覧者により選択された所定の前記提供者のグラフの各プロット位置の近傍に、前記字幕の少なくとも一部を表示させることができる。
 前記表示制御部には、複数の前記提供者のグラフの各時刻におけるプロット位置のうち、前記視聴状況を表す値が最も高いプロット位置の近傍に、前記字幕の少なくとも一部を表示させることができる。
 前記表示制御部には、前記画面の閲覧者による操作に応じて、前記視聴状況の遷移を表す単位時間を切り替えて前記図表を表示させることができる。
 前記表示制御部には、ネットワークを介して接続された外部の装置に前記画面のデータを送信し、前記外部の装置のディスプレイに前記画面を表示させることができる。
 前記視聴ログ取得部には、前記コンテンツの視聴者が使用する、前記コンテンツを受信して再生する受信機から送信されてきた前記視聴ログを取得させることができる。
 前記取得部には、前記コンテンツを受信する受信機において前記コンテンツから抽出され、前記受信機から送信されてきた前記字幕のデータを取得させることができる。
 本技術の一側面においては、動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログが取得され、前記コンテンツの各時刻の内容を表す表示データが取得される。また、前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとが同じ画面に表示される。
 本技術によれば、コンテンツの視聴状況の変化と各時刻の内容を容易に確認することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る情報提供システムの構成例を示す図である。 字幕データの例を示す図である。 モニタリング画面の表示例を示す図である。 モニタリング画面の表示例を示す図である。 モニタリング画面の一部を示す拡大図である。 モニタリング画面の表示例を示す図である。 情報提供サーバのハードウェア構成例を示すブロック図である。 情報提供サーバの機能構成例を示すブロック図である。 図8のデータ整形・統合部の構成例を示すブロック図である。 情報提供サーバの動作について説明するフローチャートである。 情報提供サーバの構成例を示す図である。 情報提供サーバの他の構成例を示すブロック図である。 モニタリング画面の表示例を示す図である。 モニタリング画面の表示例を示す図である。 モニタリング画面の表示例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.第1の実施の形態(字幕の抽出をサーバ側で行う例)
 2.第2の実施の形態(字幕の抽出を受信機側で行う例)
 3.変形例
<<1.第1の実施の形態(字幕の抽出をサーバ側で行う例)>>
<1-1.情報提供システムの構成例>
 図1は、本技術の一実施形態に係る情報提供システムの構成例を示す図である。
 図1の情報提供システムは、番組やCMなどの、動画と音声を含むコンテンツの視聴状況を、放送局などの事業者が、ほぼリアルタイムで閲覧できるようにするシステムである。図1の情報提供システムは、コンテンツの視聴状況のモニタリングを可能にするモニタリングシステムということができる。
 ここでいうリアルタイムでの閲覧は、1時間番組などの所定の時間の番組の提供中に、その番組の視聴状況を閲覧できるという意味である。番組のある時刻の内容を提供してから、その時刻の視聴状況を閲覧できるようになるまでには、視聴ログの集計等にかかる分だけ所定の時間差がある。
 なお、以下においては、放送局が、予め決められたスケジュールに従って提供する番組の視聴状況をモニタリングする場合について主に説明するが、動画と音声からなる、番組以外のコンテンツの視聴状況のモニタリングにも適用可能である。番組の提供は、放送波を用いた伝送路だけでなく、インターネットなどの通信を用いた伝送路を介して行われるようにしてもよい。
 図1の情報処理システムは、情報提供サーバ1、放送受信機2-1乃至2-3、および情報閲覧装置3-1,3-2が、インターネットなどのネットワーク4を介して接続されることによって構成される。
 ネットワーク4は、有線のネットワーク、無線のネットワーク、および有線と無線を組み合わせたネットワークのいずれの形態のものであってもよい。放送受信機2-1乃至2-3と情報閲覧装置3-1,3-2のそれぞれは、ネットワーク4を介して情報提供サーバ1と通信を行うことができる。
 放送受信機2-1乃至2-3は、テレビジョン受像機、録画機器、PCなどの、放送局が提供する番組を受信可能な装置である。放送受信機2-1乃至2-3のユーザである視聴者は、所定のチャンネルを選択するなどして、放送受信機2-1乃至2-3が受信し、再生する番組を視聴する。
 番組の視聴中、放送受信機2-1乃至2-3は、それぞれ、視聴ログを情報提供サーバ1に送信する。視聴ログには、例えば、時刻情報とともに、受信中のチャンネルを表すチャンネル番号や視聴中の番組を表す番組IDなどの識別情報が含まれる。
 放送受信機2-1乃至2-3には、視聴ログを所定の時間毎に繰り返し送信するアプリケーションが搭載されている。このアプリケーションは、例えば情報提供サーバ1を管理する事業者により提供されたものである。
 情報閲覧装置3-1,3-2は、PC、タブレット端末、スマートフォンなどの、Webブラウザを搭載した情報処理装置である。情報閲覧装置3-1,3-2は、例えば、それぞれ異なる放送局に用意され、放送局の管理者により扱われる。放送局の管理者は、情報閲覧装置3-1,3-2を操作して、情報提供サーバ1が管理するWebサイトにアクセスし、自身が提供する番組の視聴状況や、他局が提供する番組の視聴状況を閲覧する。
 図1の例においては、番組の視聴に用いられる放送受信機として放送受信機2-1乃至2-3の3つの装置が示されているが、実際にはさらに多くの放送受信機がネットワーク4に接続される。同様に、視聴状況のモニタリングに用いられる情報閲覧装置として情報閲覧装置3-1と情報閲覧装置3-2の2つの装置が示されているが、実際にはさらに多くの情報閲覧装置がネットワーク4に接続される。
 以下、適宜、放送受信機2-1乃至2-3をそれぞれ区別する必要がない場合、まとめて放送受信機2という。また、情報閲覧装置3-1と情報閲覧装置3-2をそれぞれ区別する必要がない場合、まとめて情報閲覧装置3という。
 情報提供サーバ1は、例えば、放送受信機2のメーカーが管理するサーバである。情報提供サーバ1は、放送受信機2から送信されてきた視聴ログを受信し、放送中の各番組の視聴状況を集計する。
 番組の視聴状況は、例えば、番組を視聴している視聴者の数である視聴数により表される。視聴者の全体の数に対する視聴者の数により視聴率を求め、視聴状況が視聴率により表されるようにしてもよい。このように、視聴状況を表す値は、視聴ログに基づいて求められる値であれば任意である。
 また、情報提供サーバ1は、各放送局が提供中の番組を受信し、各番組の字幕データを抽出する。この例においては、情報提供サーバ1は、放送受信機としての機能をも有している。
 図2は、字幕データの例を示す図である。
 図2に示すように、字幕データは、テキストデータと表示時刻を対応付けることによって構成される。図2に示す字幕データは、「2016年9月12日」に放送されるある番組の字幕データであり、例えば21時00分21秒(「21:00:21」)には「>>こんばんは、ニュース〇×△です。」の字幕が表示されるものとされている。
 情報提供サーバ1は、番組の視聴数の遷移(時系列変化)を表すグラフとともに、番組の各時刻の字幕を表示した画面を、番組の視聴状況の閲覧に用いられるモニタリング画面として生成する。情報提供サーバ1は、このようにして生成したモニタリング画面を、アクセスしてきた情報閲覧装置3のディスプレイに表示させる。
<1-2.画面表示について>
 図3は、モニタリング画面の表示例を示す図である。
 モニタリング画面は、基本的に、その略上半分に、横長長方形の表示領域である視聴状況表示欄11が形成され、下方に、番組詳細表示欄12と字幕表示欄13が形成されることによって構成される。視聴状況表示欄11の下には、放送局選択欄21、時刻表示欄22、単位時間選択欄23、表示形式選択欄24、および操作ボタン25が横に並べて表示される。
 モニタリング画面の操作は、例えば、情報閲覧装置3に設けられたマウスを用いて、または、情報閲覧装置3のディスプレイにタッチパネルが設けられている場合、画面に直接触れることによって行われる。
 視聴状況表示欄11には、ある放送局が提供する番組の視聴数の変化を表す折れ線グラフである視聴数グラフG1が表示される。視聴状況表示欄11の横軸は時刻を表し、縦軸は視聴数を表す。番組の視聴数は、放送受信機2から送信されてきた視聴ログを集計することによって得られたものである。
 図3の例においては、放送局として「NNN総合」が選択されており、単位時間として「3分」が選択されている。視聴状況表示欄11の視聴数グラフG1は、左端を「20:03:00」、右端を現在時刻である「21:00:00」として、「NNN総合」が放送する番組の、「20:03:00」から「21:00:00」までの時間帯の、3分毎の各時刻の視聴数を示している。
 視聴状況表示欄11の表示は、直前に集計された現在時刻の視聴数が右端に常に表示されるように、単位時間ごとに更新される。図3に示す視聴数グラフG1の各時刻の視聴数が、左方向にずれて表示されることになる。
 視聴数グラフG1が更新して表示されることにより、情報閲覧装置3の管理者は、選択している放送局の視聴数の変化をリアルタイムで確認することができる。
 また、視聴状況表示欄11上の、視聴数を表す各プロット位置の近傍には、その時刻に表示される字幕の少なくとも一部が表示される。上述したように、情報提供サーバ1においては、各番組のデータから字幕データが抽出されるようになされており、モニタリング画面の字幕の表示は、抽出された字幕データを用いて行われる。
 例えば、右端の「21:00:00」のプロット位置の上には、「>>こ...」の文字が表示されている。これは、図2を参照して説明した、現在時刻の直近の「21:00:21」の字幕である「>>こんばんは、ニュース〇×△です。」の先頭部分に相当する。
 他のプロット位置の上に表示されているそれぞれの文字も、各プロット位置に対応する時刻、またはその時刻を含む単位時間の間に表示される字幕の一部を表す。表示される文字数には制限があり、表示しきれない文字については「...」で表される。
 例えば、プロット位置や、プロット位置の近傍に表示されている字幕が押下された場合、図4に示すように、ポップアップウインドウ51がモニタリング画面に重ねて表示される。ウインドウ51には、視聴状況表示欄11上に表示しきれない文字を含めて、押下された位置に対応する時刻に表示される字幕(対応する時刻を含む単位時間内の字幕)が表示される。なお、字幕が押下された場合、字幕表示欄13の表示は、押下された時刻に対応する字幕が最上段に表示されるように更新される。
 図4のウインドウ51に表示される「そしてあまり知られていない~」の字幕は、視聴状況表示欄11の「20:57:00」のプロット位置の近傍、またはそのプロット位置の上に表示されている字幕が押下されたときに表示される「20:57:00」の字幕である。
 このように、各時刻の字幕を付加した形で視聴数グラフG1が表示されるため、情報閲覧装置3の管理者は、各時刻の視聴数だけでなく、各時刻の大まかな内容を確認することができる。
 図5は、図3の視聴状況表示欄11の右端近傍を拡大して示す図である。
 図5の例においては、「20:39:00」から「21:00:00」までの時間帯の視聴数が示されている。各プロット位置の上には、各時刻に表示される字幕の一部が表示されている。
 破線で示す境界線L1と境界線L2は、視聴状況表示欄11上に実際に表示される線であり、番組の切り替わりのタイミングを示す。例えば、「20:45:00」の位置に表示される境界線L1は、番組名「首都圏ニュース」の番組の開始時刻を示し、「21:00:00」の位置に表示される破線L2は、番組名「ニュース〇×△」の番組の開始時刻を示す。境界線L1,L2上の所定の位置には、その時刻に開始される番組の番組名が重畳して表示される。
 また、視聴数グラフG1を構成する線は、番組毎に異なる線を用いて表示される。図5において、境界線L1で示す「20:45:00」以降の視聴数グラフG1の線が、それより前の時間の線より太い線で示されていることは、それぞれ異なる線を用いて表示されていることを表す。例えば、番組毎に、線の種類、色、太さなどを変えて視聴数が表される。放送中の番組の視聴数を表す線が、強調表示されるようにしてもよい。
 図3の説明に戻り、放送局選択欄21には、選択中の放送局の名前が表示される。放送局選択欄21に表示されている放送局の番組の視聴数を表す視聴数グラフG1が視聴状況表示欄11に表示される。
 情報閲覧装置3の管理者は、放送局選択欄21の右端の下向き三角形を押下したときに表示される放送局の一覧の中から所定の放送局を選択し、選択した放送局の番組の視聴率を表す視聴数グラフを視聴状況表示欄11に表示させることができる。
 時刻表示欄22には基準時刻が表示される。基準時刻の設定は、例えば視聴状況表示欄11上の位置を押下することによって行われ、押下された位置に対応する時刻が基準時刻として設定される。例えば、基準時刻の視聴数が左端に表示されるように、視聴状況表示欄11の表示が制御される。
 なお、視聴状況表示欄11の上に表示されている番組のタイトルや放送時間は、基準時刻に放送される番組の情報である。
 単位時間選択欄23には、選択中の単位時間が表示される。単位時間選択欄23に表示されている単位時間毎の視聴数を表す視聴数グラフG1が視聴状況表示欄11に表示される。
 情報閲覧装置3の管理者は、単位時間選択欄23の右端の下向き三角形を押下したときに表示される、「1分」、「3分」、「5分」などの複数の単位時間の中から所定の単位時間を選択し、視聴数の変化の粒度を設定することができる。
 表示形式選択欄24には、選択中の表示モードが表示される。表示モードには、例えば、字幕モードとキーワードモードとが用意される。
 字幕モードは、各時刻の字幕を先頭の文字から順に所定の文字数だけそのまま視聴状況表示欄11の各プロット位置の近傍に表示するモードである。一方、キーワードモードは、字幕を解析することによって抽出したキーワードを視聴状況表示欄11の各プロット位置の近傍に表示するモードである。
 情報閲覧装置3の管理者は、表示形式選択欄24の右端の下向き三角形を押下し、字幕モードとキーワードモードのうちのいずれかの表示モードを選択することができる。図3は、字幕モードの設定時におけるモニタリング画面の例を示す。
 操作ボタン25は、視聴状況表示欄11の時間帯を切り替えるときに操作されるボタンなどの複数のボタンから構成される。図3において、操作ボタン25を囲む破線は実際に表示される線ではない。
 モニタリング画面の下方の番組詳細表示欄12には、基準時刻に放送される番組の詳細情報が表示される。番組詳細表示欄12に表示される詳細情報は、例えばEPG(Electronic Program Guide)などのSI(Service Information)やインターネット向けの番組表データなどから取得された情報であり、番組の内容、出演者、キーワードなどの情報が含まれる。
 字幕表示欄13には、単位時間の間に表示される字幕毎にまとめて、表示順に並べて表示される。字幕表示欄13の表示は、例えば現在時刻を含む単位時間の字幕が最上段に表示されるように、時間の経過に伴って更新される。現在時刻を含む単位時間より前の単位時間の字幕は、字幕表示欄13の下に配置される。
 図3の例においては、現在時刻である「21:00:00」の字幕である「>>こんばんは、ニュース〇×△です。」を含む字幕が表示されている。字幕表示欄13の表示から、情報閲覧装置3の管理者は、視聴状況表示欄11には一部しか表示されていない字幕の詳細を確認することができる。
 このように、情報提供サーバ1が提供するモニタリング画面には、視聴数の変化を表す視聴数グラフの付加情報として、番組の字幕が表示される。
 字幕は各時刻の番組の内容を表していることから、これにより、情報閲覧装置3の管理者は、視聴数が大きく変化した場合などに、その理由を字幕から容易に確認することができる。単に視聴数の変化を示すグラフだけが表示されるとした場合、視聴数に大きな変化があったとしても、実際に番組を視聴したりしなければその理由を確認するのが難しいが、理由を字幕から推測することが可能になる。
 図6は、キーワードモードの設定時におけるモニタリング画面の例を示す図である。
 図6の視聴状況表示欄11には、「NNN総合」が放送する番組の、「21:12:00」から「22:09:00」までの時間帯の、3分毎の各時刻の視聴数を示す視聴数グラフG2が表示されている。例えば、左端の「21:12:00」のプロット位置の上には、「大池」と「豊洲」の文字が表示されている。「大池」と「豊洲」は、「21:12:00」を含む単位時間の字幕から抽出されたキーワードである。
 他のプロット位置の上に表示されているそれぞれの文字も、その時刻を含む単位時間の間に表示される字幕から抽出されたキーワードを表す。なお、抽出されたキーワードのうち、番組詳細表示欄12に含まれるキーワードについては、強調表示するようにしてもよい。
 このように、キーワードモードの設定時、視聴状況表示欄11の各プロット位置の近傍には、字幕が先頭の文字から順に表示されるのではなく、字幕を解析することによって抽出されたキーワードが表示される。
 これにより、情報閲覧装置3の管理者は、各時刻の番組の内容をより容易に確認することができる。
 キーワードモードの設定時、字幕表示欄13に表示される字幕に含まれるキーワードは、図6に示すように強調表示される。
 図6において、キーワードK1として示す「大池」とキーワードK2として示す「豊洲」が白抜きの文字で表示されていることは、キーワードK1とキーワードK2が強調表示されていることを示す。強調表示は、文字の色を変える、下線を付加する、背景の色を変えるなどして行われる。
 単位時間内の字幕全体ではなく、字幕から抽出されたキーワードが、表示時刻とともに字幕表示欄13に並べて表示されるようにしてもよい。
 以上のようなモニタリング画面を表示する情報提供サーバ1の処理についてはフローチャートを参照して後述する。
<1-3.情報提供サーバの構成と動作>
・情報提供サーバの構成
 図7は、情報提供サーバ1のハードウェア構成例を示すブロック図である。
 CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続される。
 バス104には、さらに、入出力インタフェース105が接続される。入出力インタフェース105には、放送受信部106、入力部107、出力部108、記憶部109、通信部110、およびドライブ111が接続される。
 放送受信部106は、図示せぬアンテナからの放送波信号を受信し、例えば、放送中の全ての番組のデータを出力する。
 入力部107は、キーボード、マウスなどよりなり、情報提供サーバ1の管理者による操作の内容を表す信号を出力する。
 出力部108は、ハードディスクや不揮発性のメモリなどの記録媒体よりなり、視聴ログ、番組の詳細情報、字幕データなどの、モニタリング画面の表示に用いられる各種のデータを記憶する。
 通信部110は、ネットワークインタフェースなどよりなり、放送受信機2や情報閲覧装置3との間で通信を行う。また、通信部110は、番組の提供が通信の伝送路を介して行われる場合、番組の放送局が管理するサーバから送信されてきた番組のデータを受信する。
 ドライブ111は、リムーバブルメディア112に対するデータの書き込み、または、リムーバブルメディア112に記憶されたデータの読み出しを行う。
 図8は、情報提供サーバ1の機能構成例を示すブロック図である。図8に示す機能部のうちの少なくとも一部は、図7のCPU101により所定のプログラムが実行されることによって実現される。
 情報提供サーバ1においては、視聴ログ収集部121、視聴ログDB122、番組情報取得部123、番組情報DB124、字幕取得部125、付加情報DB126、データ整形・統合部127、および表示制御部128が実現される。視聴ログDB122、番組情報DB124、および付加情報DB126は、記憶部109において実現される。
 視聴ログ収集部121は、放送受信機2から送信され、通信部110により受信された視聴ログを取得する。視聴ログ収集部121は、取得した視聴ログを視聴ログDB122に記憶させる。
 番組情報取得部123は、放送受信部106から供給された番組データに付加されている番組情報を取得する。番組情報には、上述したように、番組の概要、出演者などの詳細情報が含まれる。番組情報取得部123は、番組の詳細情報を取得する取得部として機能する。番組情報取得部123は、取得した番組情報を番組情報DB124に記憶させる。
 字幕取得部125は、放送受信部106から供給された番組データから字幕データを抽出して取得する。字幕データは、番組の各時刻の内容を表すテキストデータである。字幕取得部125は、番組の各時刻の内容を表すテキストデータを取得する取得部として機能する。字幕取得部125は、番組データから取得した字幕データを付加情報DB126に記憶させる。付加情報DB126には、放送された全ての番組の字幕データが記憶される。
 なお、番組の提供が通信の伝送路を介して行われる場合、通信部110により受信された番組のデータは、番組情報取得部123と字幕取得部125に供給される。番組情報取得部123と字幕取得部125においては、それぞれ、放送波の伝送路を介して提供された番組データに対する処理と同様の処理が行われ、番組情報の取得と字幕データの取得が行われる。
 データ整形・統合部127は、視聴ログDB122に記憶された視聴ログを集計し、各放送局の番組の視聴数を算出する。
 また、データ整形・統合部127は、各放送局の番組の視聴数、番組情報DB124に記憶されている各番組の詳細情報、および、付加情報DB126に記憶されている各番組の字幕データに基づいてモニタリング画面の表示データを生成する。データ整形・統合部127は、生成したモニタリング画面の表示データを表示制御部128に出力する。
 表示制御部128は、通信部110を制御して、情報閲覧装置3のWebブラウザ3Aとの間で通信を行い、モニタリング画面の表示データをWebブラウザ3Aに送信する。表示制御部128は、モニタリング画面の表示を制御するモニタリングアプリケーションがCPU101により実行されることによって実現される。
 図9は、データ整形・統合部127の構成例を示すブロック図である。
 データ整形・統合部127は、視聴状況検出部151、字幕解析部152、および表示データ生成部153から構成される。視聴ログDB122から読み出された視聴ログは視聴状況検出部151に供給され、番組情報DB124から読み出された番組情報は表示データ生成部153に供給される。また、付加情報DB126から読み出された字幕データは字幕解析部152と表示データ生成部153に供給される。
 視聴状況検出部151は、視聴ログDB122から読み出した視聴ログを集計し、各放送局の番組の視聴数を繰り返し算出する。例えば、視聴状況検出部151により、放送された全ての番組の視聴数がリアルタイムで算出される。視聴状況検出部151は、算出した視聴数の情報を表示データ生成部153に出力する。
 字幕解析部152は、付加情報DB126から読み出した字幕データを解析し、各時刻の字幕からキーワードを抽出する。字幕解析部152は、抽出したキーワードを、それぞれのキーワードの抽出元になった字幕の時刻情報とともに表示データ生成部153に出力する。字幕解析部152により抽出されたキーワードは、例えば、モニタリング画面の表示モードとしてキーワードモードが設定されている場合に用いられる。
 表示データ生成部153は、各放送局の番組毎に、各時刻の視聴数、番組情報、キーワードを含む字幕を対応付けることによってモニタリング画面の表示データを生成し、表示制御部128に出力する。
・情報提供サーバの動作
 ここで、図10のフローチャートを参照して、以上のような構成を有する情報提供サーバ1の動作について説明する。
 ステップS1において、視聴ログ収集部121は、放送受信機2から送信された視聴ログを取得する。視聴ログ収集部121による視聴ログの収集は、図10の処理が行われている間も繰り返し行われる。
 ステップS2において、データ整形・統合部127の視聴状況検出部151は、視聴ログを集計し、各放送局の番組の視聴数を算出する。
 ステップS3において、番組情報取得部123は、放送受信部106により受信された番組データに付加されている番組情報を取得する。
 ステップS4において、字幕取得部125は、放送受信部106により受信された番組データから字幕データを抽出し、取得する。字幕取得部125は、全ての番組の字幕データを取得する。
 ステップS5において、字幕解析部152は、各番組の字幕データを解析し、各時刻の字幕からキーワードを抽出する。
 ステップS6において、表示データ生成部153は、各放送局の番組毎に、各時刻の視聴数、番組情報、キーワードを含む字幕を対応付けることによってモニタリング画面の表示データを生成する。
 ステップS7において、表示制御部128は、各時刻の視聴数、番組情報、キーワードを含む字幕の各情報を情報閲覧装置3の管理者による設定に従って配置したモニタリング画面のデータを情報閲覧装置3に送信し、モニタリング画面を表示させる。
 以上の各ステップの処理が、適宜、他のステップの処理と並行して、または前後して繰り返し行われる。情報閲覧装置3のディスプレイには、図3等を参照して説明したようなモニタリング画面が表示され、これにより、情報閲覧装置3の管理者は、所定の放送局の番組の視聴数の変化を、各時刻の内容とともにリアルタイムで確認することができる。
<<2.第2の実施の形態(字幕の抽出を受信機側で行う例)>>
 以上においては、モニタリング画面に表示するための字幕の抽出が情報提供サーバ1において行われるものとしたが、放送受信機2において行われるようにしてもよい。放送受信機2により抽出された字幕データは、情報提供サーバ1に送信され、モニタリング画面の表示に用いられる。
 図11は、字幕の抽出が放送受信機2において行われる場合の情報提供サーバ1の構成例を示す図である。
 図11に示す構成のうち、図8を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。後述する図12等においても同様である。
 情報提供システムを構成する図11の放送受信機2においては字幕抽出部2Aが実現される。字幕抽出部2Aは、放送受信機2において受信された番組データから字幕データを抽出し、情報提供サーバ1に送信する。
 字幕データの抽出対象となる番組は、字幕抽出部2Aのユーザが視聴している番組であってもよいし、視聴していない番組であってもよい。また、字幕データの抽出が行われる放送受信機2が、番組の視聴に用いられ、視聴ログを情報提供サーバ1に送信する受信機であってもよいし、番組の視聴に用いられる受信機とは異なる他の受信機であってもよい。
 情報提供サーバ1の字幕取得部125は、通信部110を制御して、放送受信機2から送信されてきた字幕データを取得し、付加情報DB126に記憶させる。各放送受信機2において字幕データの抽出が行われることにより、付加情報DB126には、放送された全ての番組の字幕データが記憶される。
 図11の情報提供サーバ1においては、字幕データの取得に関する処理を除いて、図10を参照して説明した処理と同様の処理が行われる。
 このように、字幕データの抽出が放送受信機2において行われるようにすることが可能である。
 また、字幕データの抽出だけでなく、視聴ログの収集、番組情報の取得についても、適宜、情報提供サーバ1とは異なる他の装置において行われるようにすることも可能である。例えば、放送受信部106が情報提供サーバ1に設けられない場合、少なくとも、字幕データを抽出する処理と、放送波信号に含まれる番組情報を取得する処理は、情報提供サーバ1とネットワーク4を介して接続される外部の装置において行われる。
<<3.変形例>>
<3-1.字幕以外のテキストデータや画像データを表示する例>
 視聴数の変化を表す視聴数グラフに字幕が付加されるものとしたが、各時刻の番組の内容を表す、字幕以外のテキストデータが付加されるようにしてもよい。
 図12は、情報提供サーバ1の他の構成例を示すブロック図である。
 図12の情報提供サーバ1においては、図8の構成に加えて、音声解析部161と画像解析部162が設けられる。放送受信部106により受信された番組のデータは、音声解析部161と画像解析部162にも供給される。
 音声解析部161は、番組のデータに含まれる音声データを解析し、番組の音声をテキストデータに変換する。番組の各時刻の音声を変換して得られたテキストデータは、番組の各時刻の内容を表すテキストデータといえるものである。音声解析部161は、音声を変換して得られたテキストデータを、各音声が出力される時刻の情報とともに付加情報DB126に出力し、記憶させる。
 画像解析部162は、番組のデータに含まれるビデオデータを解析し、番組の動画の各フレームにテロップとして表示される文字を認識する。画像解析部162が認識する文字には、数字、記号なども含まれる。番組の各時刻のテロップを変換して得られたテキストデータも、番組の各時刻の内容を表すテキストデータといえるものである。画像解析部162は、認識結果を表すテキストデータを、各テロップが表示される時刻の情報とともに付加情報DB126に出力し、記憶させる。
 データ整形・統合部127は、モニタリング画面の表示時、各時刻の音声を変換して得られたテキストデータを付加情報DB126から読み出し、視聴数グラフのプロット位置の近傍に表示させる。また、データ整形・統合部127は、各時刻の音声を変換して得られたテキストデータを字幕表示欄13に表示させる。
 また、データ整形・統合部127は、モニタリング画面の表示時、各時刻のテロップを認識して得られたテキストデータを付加情報DB126から読み出し、視聴数グラフのプロット位置の近傍に表示させる。また、データ整形・統合部127は、各時刻のテロップを認識して得られたテキストデータを字幕表示欄13に並べて表示させる。
 このように、視聴数の変化を表す視聴数グラフとともにモニタリング画面に表示されるテキストデータとして、字幕以外のテキストデータが用いられるようにしてもよい。
 番組を実際に視聴した人により番組のメタデータとして入力されたテキストデータがモニタリング画面の表示に用いられるようにしてもよい。この場合、番組の視聴者が操作する装置から情報提供サーバ1に対して、時刻が付加されたテキストデータが送信され、字幕取得部125により取得される。
 また、放送受信機2のユーザである視聴者がSNS(Social Networking Service)などに投稿したテキストデータがモニタリング画面の表示に用いられるようにしてもよい。この場合、SNSのWebサイトを管理する装置から情報提供サーバ1に対して、時刻が付加されたテキストデータが送信され、字幕取得部125により取得される。情報提供サーバ1においては、例えば、SNSに投稿されたテキストデータが解析され、各時刻のキーワードが抽出されて、モニタリング画面に表示される。
 以上のような複数のテキストデータのうちのどの種類のテキストデータをモニタリング画面に表示させるのかを、モニタリング画面の閲覧者である情報閲覧装置3の管理者が選択することができるようにしてもよい。
 また、番組の各時刻の内容を表す表示データとして、各時刻のシーンをキャプチャして生成したサムネイル画像や、動画中の文字(テロップ)部分を切り取ることによって生成した画像を用いることが可能である。画像を解析して文字を認識する必要がないため、テロップとして表示される文字が飾り文字などで認識が難しい場合であっても、番組の各時刻の内容を表現することが可能になる。
 すなわち、番組の各時刻の内容を表す表示データとして、テキストデータだけでなく、画像データなどの各種の情報を用いることが可能である。
<3-2.モニタリング画面の表示例>
 図13は、モニタリング画面の他の表示例を示す図である。
 図13のモニタリング画面は、複数の放送局の視聴数グラフを表示可能な画面である。図13に示す構成のうち、図3に示すモニタリング画面の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 視聴状況表示欄11には、視聴数グラフG11,G12,G13の3つの視聴数グラフが表示される。視聴数グラフG11,G12,G13は、それぞれ、情報閲覧装置3の管理者により選択された異なる放送局である放送局A,B,Cの番組の視聴数の変化を表す。
 例えば、視聴数グラフG11,G12,G13は、それぞれ異なる色、異なる形状のプロット、異なる種類の線を用いて表示される。
 図13の例においては、視聴数グラフG11のプロット位置の近傍にのみ字幕が表示され、視聴数グラフG12と視聴数グラフG13のプロット位置の近傍には字幕が表示されていない。
 図13のモニタリング画面においては、どの放送局の字幕を視聴状況表示欄11上に表示させるのかを、情報閲覧装置3の管理者が選択することができるようになっている。視聴数グラフG11のプロット位置の近傍に示す「xxxx」は、字幕を構成する所定の文字を表す。
 モニタリング画面の下方には、放送局A,B,Cの番組の字幕の表示領域である字幕表示欄13-1乃至13-3が横に並べて形成される。字幕表示欄13-1乃至13-3には、それぞれ、各放送局の番組の字幕が表示順に並べて表示される。字幕表示欄13-1乃至13-3の表示は、図3の字幕表示欄13の表示と同様に、現在時刻を含む単位時間の字幕が最上段に表示されるように、時間の経過に伴って更新される。
 字幕表示欄13-1乃至13-3の上には、それぞれ放送局名が表示され、放送局名の左側にチェックボックス202-1乃至202-3が表示される。チェックボックス202-1の上には、表示する字幕の種類の選択に用いられる表示対象選択欄201が表示される。
 情報閲覧装置3の管理者は、表示対象選択欄201の右端の下向き三角形を押下したときに表示される表示対象の一覧の中から表示対象とする所定の字幕の種類を選択し、選択した種類の字幕を視聴状況表示欄11に表示させることができる。
 図13の例においては、表示対象とする字幕の種類として「チェックした局」が選択されている。表示対象とする字幕の種類が「チェックした局」であることは、チェックボックスにチェックが付けられた放送局の番組の字幕を表示することを表す。
 図13に示すようにチェックボックス202-1にチェックが付けられることにより放送局Aが選択されている場合、視聴状況表示欄11に示されるように、視聴数グラフG11のプロット位置の近傍にのみ各時刻の字幕が表示される。
 例えば、チェックボックス202-1のチェックが外され、チェックボックス202-2にチェックが付けられた場合、視聴状況表示欄11には、放送局Bの番組の視聴数を表す視聴数グラフG12のプロット位置の近傍にのみ各時刻の字幕が表示される。全てのチェックボックスにチェックが付けられた場合、放送局A,B,Cの番組の字幕が視聴状況表示欄11に表示される。
 図14は、表示対象とする字幕の種類として「トップの局」が選択された場合のモニタリング画面の表示例を示す図である。
 表示対象とする字幕の種類が「トップの局」であることは、各時刻において、視聴数が最大の番組の字幕を表示することを表す。
 例えば左端の時刻である「20:03:00」のタイミングでは、図14の視聴状況表示欄11に示すように、視聴数が最大の放送局Aの番組の字幕だけが、その最大の視聴数を表すプロット位置の近傍に表示される。この場合、放送局Bと放送局Cの番組の字幕は表示されない。
 同様に、例えば右端の時刻である「21:00:00」のタイミングでは、視聴数が最大の放送局Cの番組の字幕だけが、その最大の視聴数を表すプロット位置の近傍に表示される。この場合、放送局Aと放送局Bの番組の字幕は表示されない。
 このように、複数の放送局の番組の視聴数の変化を表す視聴数グラフを並べて表示させるようにすることも可能である。これにより、情報閲覧装置3の管理者は、番組の内容を確認しながら、各放送局の番組の視聴数の変化を比較することができる。なお、並べて表示させる視聴数グラフの数は、3つに限られるものではなく、2つであってもよいし、4つ以上であってもよい。
 図15は、モニタリング画面の表示例を示す図である。
 図13,図14に示すようにして複数の放送局の視聴数グラフが表示される場合、図15に示すように、各放送局の番組の字幕を、表示時刻を基準にして揃えて字幕表示欄13-1乃至13-3に表示させるようにしてもよい。
 図15の例においては、字幕表示欄13-1乃至13-3の最上段に、各放送局の番組の「21:00:00」の字幕が表示され、その下に、破線L11に高さを揃えて、各放送局の番組の「20:57:00」の字幕が表示されている。
 これにより、情報閲覧装置3の管理者は、各放送局の番組の字幕の比較を容易に行うことができる。
<3-3.他の表示例>
 番組の各時刻の内容を表す付加情報として字幕が表示されるものとしたが、他の情報が表示されるようにしてもよい。例えば、番組の内容に関係のある周辺情報が視聴数グラフに合わせて表示されるようにすることが可能である。付加情報の表示領域が狭い場合には要約して表示するようにしてもよい。
 また、視聴数グラフの表示が単に時間の経過に合わせて進むのではなく、所定のイベントが発生したことに応じて自動的に切り替わるようにしてもよい。
 例えば、字幕中に特定の単語が検出された場合、視聴数が閾値を超えて変化した場合、視聴数の順位に変動があった場合、番組が切り替わった場合などの所定のタイミングで、視聴数グラフの進行が止まるようにすることも可能である。
 視聴数グラフの所定の位置がクリック、タップ、マウスオーバーなどの操作で指定された場合、指定された位置に対応する時刻の字幕が詳細表示されるようにしてもよい。
 単位時間が変更された場合、視聴状況表示欄11や字幕表示欄13に表示される字幕の束ね方が変わるようにしてもよい。
 情報閲覧装置3の管理者によりキーワードが入力された場合、入力されたキーワードを含む字幕が検索され、検索された字幕の表示時刻を含む時間帯の視聴数グラフが視聴状況表示欄11に表示されるようにしてもよい。このような検索機能により、例えばトレンド分析が可能になる。
 視聴状況表示欄11の縦軸の1目盛りの単位が視聴数に応じて自動的に調整されるようにしてもよい。
 また、視聴数グラフに付加して表示される字幕が、文字数に応じて位置を変えて表示されたり、表示量を変えて表示されたりするようにしてもよい。
 番組の切り替わりのタイミングを分かり易くするために、視聴数グラフの近傍に番組のタイトルが表示されたり、線の色が番組毎に変えて表示されたりするようにしてもよい。また、時刻を表す数字の表示形式が番組毎に変わったり、視聴数グラフの背景の領域の色が番組毎に変わったりするようにしてもよい。
 字幕から抽出したキーワードと番組詳細情報とのマッチングを行い、マッチング結果に応じて表示が変わるようにしてもよい。
 例えば、視聴数グラフに付加して表示されるキーワードが人名である場合、その人名が番組詳細情報に出演者として含まれているか否かが判定される。判定結果に応じて表示(色など)を変えて人名が表示されることにより、その人が番組の出演者であるのか、単に話題になっているだけであるのかを閲覧者は区別することが可能になる。
 人名などのキーワードの出現頻度がランキング表示されるようにしてもよい。例えばドラマ番組においては、字幕中に、話者として役名が表示される。この場合、話者と実際の名前を紐付けて出現頻度が算出されるようにしてもよい。
 視聴数グラフ上のプロット位置が押下された場合、押下された位置に対応する時刻が基準時刻として左端に表示されるように、視聴数グラフの表示範囲が移動するようにしてもよい。また、基準時刻の字幕の文字が他の文字と色を変えて表示されるようにしてもよい。
 キーワードが選択された場合、字幕中に含まれるキーワードの色を変えるなどして強調表示されるようにしてもよい。
 複数の放送局の視聴数グラフを表示する場合、線の太さを変える、色を変えるといったように、視聴数の順位に応じて表示が変化するようにしてもよい。また、選択された1つの放送局の視聴数グラフだけが強調して表示されるようにしてもよい。
 さらに、視聴数の順位に変動があった場合、ある放送局の番組の視聴数のピークと他の放送局の番組の視聴数のピークとが同期した場合などの所定のタイミングでアラートが出力されるようにしてもよい。
 字幕やキーワードから番組のコーナーの内容が推定され、推定された内容が表示されるようにしてもよい。
 情報閲覧装置3の管理者が透過型のHMD(Head Mounted Display)を装着してモニタリング画面を閲覧している場合、視聴数グラフについてはモニタリング画面上に表示され、字幕についてはHMD上に表示されるようにしてもよい。
 CM検出を行い、検出したCM開始時刻と視聴数が急降下した時刻とを用いて現在時刻の補正が行われるようにしてもよい。通常、CMが開始された場合、視聴数は下がるため、そのタイミングを時刻の補正に用いることが可能になる。視聴数グラフの表示がリアルタイムで更新される場合、視聴数の更新を遅らせるといったように、補正した時刻に応じて視聴数グラフの表示を制御することもできる。
 音声解析を行い、字幕の時刻を補正して表示させるようにしてもよい。
<3-4.他の変形例>
 以上においては、放送波の伝送路を介して、または通信の伝送路を介して放送中の番組の視聴状況をモニタリングする場合について説明したが、本技術は、録画状況のモニタリングにも適用可能である。
 また、ラジオ放送などの音声からなるコンテンツの視聴状況のモニタリングに本技術が用いられるようにしてもよいし、電車内での動画を用いた広告のような、動画のみからなるコンテンツの視聴状況のモニタリングに本技術が用いられるようにしてもよい。すなわち、視聴状況のモニタリングの対象となるコンテンツは、動画と音声のうちの少なくともいずれかを含むコンテンツとすることが可能である。
 また、視聴状況を表す図表として、折れ線グラフがモニタリング画面に表示されるものとしたが、棒グラフ、視聴数の値の表などの他の図表が用いられるようにしてもよい。
 情報閲覧装置3において、モニタリング画面がWebブラウザ3Aにより表示されるものとしたが、他の閲覧アプリケーションにより表示されるようにしてもよい。視聴状況のリアルタイムでの閲覧がモニタリング画面を用いて行われるものとしたが、蓄積された視聴状況を閲覧して分析するためにモニタリング画面が用いられるようにしてもよい。
・プログラムの例
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
 インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図7に示されるリムーバブルメディア112に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM102や記憶部109に、あらかじめインストールしておくことができる。
 コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得する視聴ログ取得部と、
 前記コンテンツの各時刻の内容を表す表示データを取得する取得部と、
 前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる表示制御部と
 を備える情報処理装置。
(2)
 前記取得部は、前記コンテンツの動画に合わせて表示される字幕のデータを前記表示データとして取得する
 前記(1)に記載の情報処理装置。
(3)
 前記表示制御部は、前記視聴状況の遷移を表すグラフを前記図表として表示させ、各プロット位置の近傍に、各プロット位置に対応する時刻の前記字幕の少なくとも一部を表示させる
 前記(2)に記載の情報処理装置。
(4)
 前記字幕を解析し、キーワードを抽出する字幕解析部をさらに備え、
 前記表示制御部は、各プロット位置に対応する時刻の前記字幕から抽出されたキーワードを表示させる
 前記(3)に記載の情報処理装置。
(5)
 前記表示制御部は、前記画面を構成する、前記図表の表示領域である第1の表示領域とは異なる第2の表示領域に前記字幕を表示順に並べて表示させる
 前記(3)または(4)に記載の情報処理装置。
(6)
 前記コンテンツの詳細情報を取得する詳細情報取得部をさらに備え、
 前記表示制御部は、前記画面を構成する第3の表示領域に前記詳細情報を表示させる
 前記(5)に記載の情報処理装置。
(7)
 前記表示制御部は、予め決められたスケジュールに従って複数の提供者のそれぞれによって提供された前記コンテンツの前記視聴状況の遷移を表す、前記提供者毎のグラフを表示させる
 前記(3)乃至(6)のうちのいずれかに記載の情報処理装置。
(8)
 前記表示制御部は、前記画面の閲覧者により選択された所定の前記提供者のグラフの各プロット位置の近傍に、前記字幕の少なくとも一部を表示させる
 前記(7)に記載の情報処理装置。
(9)
 前記表示制御部は、複数の前記提供者のグラフの各時刻におけるプロット位置のうち、前記視聴状況を表す値が最も高いプロット位置の近傍に、前記字幕の少なくとも一部を表示させる
 前記(7)に記載の情報処理装置。
(10)
 前記表示制御部は、前記画面の閲覧者による操作に応じて、前記視聴状況の遷移を表す単位時間を切り替えて前記図表を表示させる
 前記(1)乃至(9)のうちのいずれかに記載の情報処理装置。
(11)
 前記表示制御部は、ネットワークを介して接続された外部の装置に前記画面のデータを送信し、前記外部の装置のディスプレイに前記画面を表示させる
 前記(1)乃至(10)のうちのいずれかに記載の情報処理装置。
(12)
 前記視聴ログ取得部は、前記コンテンツの視聴者が使用する、前記コンテンツを受信して再生する受信機から送信されてきた前記視聴ログを取得する
 前記(1)乃至(11)のうちのいずれかに記載の情報処理装置。
(13)
 前記取得部は、前記コンテンツを受信する受信機において前記コンテンツから抽出され、前記受信機から送信されてきた前記字幕のデータを取得する
 前記(2)に記載の情報処理装置。
(14)
 動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得し、
 前記コンテンツの各時刻の内容を表す表示データを取得し、
 前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる
 ステップを含む情報処理方法。
(15)
 コンピュータに、
 動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得し、
 前記コンテンツの各時刻の内容を表す表示データを取得し、
 前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる
 ステップを含む処理を実行させるためのプログラム。
 121 視聴ログ収集部, 122 視聴ログDB, 123 番組情報取得部, 124 番組情報DB, 125 字幕取得部, 126 付加情報DB, 127 データ整形・統合部, 128 表示制御部, 151 視聴状況検出部, 152 字幕解析部, 153 表示データ生成部

Claims (15)

  1.  動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得する視聴ログ取得部と、
     前記コンテンツの各時刻の内容を表す表示データを取得する取得部と、
     前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる表示制御部と
     を備える情報処理装置。
  2.  前記取得部は、前記コンテンツの動画に合わせて表示される字幕のデータを前記表示データとして取得する
     請求項1に記載の情報処理装置。
  3.  前記表示制御部は、前記視聴状況の遷移を表すグラフを前記図表として表示させ、各プロット位置の近傍に、各プロット位置に対応する時刻の前記字幕の少なくとも一部を表示させる
     請求項2に記載の情報処理装置。
  4.  前記字幕を解析し、キーワードを抽出する字幕解析部をさらに備え、
     前記表示制御部は、各プロット位置に対応する時刻の前記字幕から抽出されたキーワードを表示させる
     請求項3に記載の情報処理装置。
  5.  前記表示制御部は、前記画面を構成する、前記図表の表示領域である第1の表示領域とは異なる第2の表示領域に前記字幕を表示順に並べて表示させる
     請求項3に記載の情報処理装置。
  6.  前記コンテンツの詳細情報を取得する詳細情報取得部をさらに備え、
     前記表示制御部は、前記画面を構成する第3の表示領域に前記詳細情報を表示させる
     請求項5に記載の情報処理装置。
  7.  前記表示制御部は、予め決められたスケジュールに従って複数の提供者のそれぞれによって提供された前記コンテンツの前記視聴状況の遷移を表す、前記提供者毎のグラフを表示させる
     請求項3に記載の情報処理装置。
  8.  前記表示制御部は、前記画面の閲覧者により選択された所定の前記提供者のグラフの各プロット位置の近傍に、前記字幕の少なくとも一部を表示させる
     請求項7に記載の情報処理装置。
  9.  前記表示制御部は、複数の前記提供者のグラフの各時刻におけるプロット位置のうち、前記視聴状況を表す値が最も高いプロット位置の近傍に、前記字幕の少なくとも一部を表示させる
     請求項7に記載の情報処理装置。
  10.  前記表示制御部は、前記画面の閲覧者による操作に応じて、前記視聴状況の遷移を表す単位時間を切り替えて前記図表を表示させる
     請求項1に記載の情報処理装置。
  11.  前記表示制御部は、ネットワークを介して接続された外部の装置に前記画面のデータを送信し、前記外部の装置のディスプレイに前記画面を表示させる
     請求項1に記載の情報処理装置。
  12.  前記視聴ログ取得部は、前記コンテンツの視聴者が使用する、前記コンテンツを受信して再生する受信機から送信されてきた前記視聴ログを取得する
     請求項1に記載の情報処理装置。
  13.  前記取得部は、前記コンテンツを受信する受信機において前記コンテンツから抽出され、前記受信機から送信されてきた前記字幕のデータを取得する
     請求項2に記載の情報処理装置。
  14.  動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得し、
     前記コンテンツの各時刻の内容を表す表示データを取得し、
     前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる
     ステップを含む情報処理方法。
  15.  コンピュータに、
     動画と音声のうちの少なくともいずれかを含むコンテンツの視聴ログを取得し、
     前記コンテンツの各時刻の内容を表す表示データを取得し、
     前記視聴ログに基づいて特定される前記コンテンツの視聴状況の遷移を表す図表と、前記図表によって前記視聴状況の遷移が表される時間帯の各時刻の前記コンテンツの内容を表す前記表示データとを同じ画面に表示させる
     ステップを含む処理を実行させるためのプログラム。
PCT/JP2017/038471 2016-11-08 2017-10-25 情報処理装置、情報処理方法、およびプログラム WO2018088213A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018550129A JP7065784B2 (ja) 2016-11-08 2017-10-25 情報処理装置、情報処理方法、およびプログラム
US16/345,343 US11164347B2 (en) 2016-11-08 2017-10-25 Information processing apparatus, information processing method, and program
EP17868517.8A EP3541072A4 (en) 2016-11-08 2017-10-25 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016218151 2016-11-08
JP2016-218151 2016-11-08

Publications (1)

Publication Number Publication Date
WO2018088213A1 true WO2018088213A1 (ja) 2018-05-17

Family

ID=62109243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038471 WO2018088213A1 (ja) 2016-11-08 2017-10-25 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US11164347B2 (ja)
EP (1) EP3541072A4 (ja)
JP (1) JP7065784B2 (ja)
WO (1) WO2018088213A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021072480A (ja) * 2019-10-29 2021-05-06 東芝映像ソリューション株式会社 視聴履歴解析装置、視聴履歴解析方法およびプログラム
JP2022502968A (ja) * 2018-10-11 2022-01-11 ザップル インコーポレイテッド チャンネル切替データを用いた視聴率算出装置及び方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11094096B2 (en) * 2019-02-01 2021-08-17 Sap Se Enhancement layers for data visualization

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62102698A (ja) * 1985-10-29 1987-05-13 Nippon Tv Housoumou Kk 視聴率表示方法および装置
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
US7603682B1 (en) * 2008-10-07 2009-10-13 International Business Machines Corporation Digest video browsing based on collaborative information
JP2016103216A (ja) * 2014-11-28 2016-06-02 株式会社東芝 システム、方法およびプログラム
JP2016178577A (ja) * 2015-03-23 2016-10-06 Jcc株式会社 視聴率分析装置、視聴率分析システム、視聴率分析方法、及び視聴率分析プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595998B2 (ja) 2001-02-06 2010-12-08 ソニー株式会社 コンテンツ再生装置、コンテンツ受信装置、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
JP4359810B2 (ja) * 2002-10-01 2009-11-11 ソニー株式会社 ユーザ端末、データ処理方法、およびプログラム、並びにデータ処理システム
US7727067B2 (en) * 2003-12-12 2010-06-01 Olympian Gaming Llc Wagering games allowing player to wager on iterative simultaneous independent wagers with different variances
US7685099B2 (en) * 2007-06-28 2010-03-23 Microsoft Corporation Forecasting time-independent search queries
US9515754B2 (en) 2008-08-12 2016-12-06 Iheartmedia Management Services, Inc. Measuring audience reaction
US20120079080A1 (en) * 2009-02-11 2012-03-29 Shervin Pishevar Apparatuses, Methods and Systems For An Interactive Proximity Display Tether With Remote Co-Play
KR101821199B1 (ko) 2011-05-09 2018-01-23 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 실시간 시청률 제공 방법
US8787822B2 (en) * 2012-09-07 2014-07-22 Adori Labs Entertainment system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62102698A (ja) * 1985-10-29 1987-05-13 Nippon Tv Housoumou Kk 視聴率表示方法および装置
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
US7603682B1 (en) * 2008-10-07 2009-10-13 International Business Machines Corporation Digest video browsing based on collaborative information
JP2016103216A (ja) * 2014-11-28 2016-06-02 株式会社東芝 システム、方法およびプログラム
JP2016178577A (ja) * 2015-03-23 2016-10-06 Jcc株式会社 視聴率分析装置、視聴率分析システム、視聴率分析方法、及び視聴率分析プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3541072A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022502968A (ja) * 2018-10-11 2022-01-11 ザップル インコーポレイテッド チャンネル切替データを用いた視聴率算出装置及び方法
JP7220284B2 (ja) 2018-10-11 2023-02-09 ザップル インコーポレイテッド チャンネル切替データを用いた視聴率算出装置及び方法
JP2021072480A (ja) * 2019-10-29 2021-05-06 東芝映像ソリューション株式会社 視聴履歴解析装置、視聴履歴解析方法およびプログラム
JP7263211B2 (ja) 2019-10-29 2023-04-24 Tvs Regza株式会社 視聴履歴解析装置、視聴履歴解析方法およびプログラム

Also Published As

Publication number Publication date
JP7065784B2 (ja) 2022-05-12
US20190318515A1 (en) 2019-10-17
US11164347B2 (en) 2021-11-02
JPWO2018088213A1 (ja) 2019-09-26
EP3541072A1 (en) 2019-09-18
EP3541072A4 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
US10148928B2 (en) Generating alerts based upon detector outputs
KR102166423B1 (ko) 디스플레이 장치, 서버 장치 및 디스플레이 장치의 이벤트 정보 제공 방법
CN105874451B (zh) 用于呈现对应于点播媒体内容的补充信息的方法、系统和介质
US9424881B2 (en) Selective placement of progress bar
EP2916557B1 (en) Display apparatus and control method thereof
US8667526B2 (en) Providing content related to an item in an interactive data scroll
US9306989B1 (en) Linking social media and broadcast media
US20140052696A1 (en) Systems and methods for visual categorization of multimedia data
US20130339998A1 (en) Systems and methods for providing related media content listings during media content credits
KR20100071620A (ko) 프로그램 방송 중 검색 서비스를 제공하는 방법 및 장치
EP3413574A1 (en) Methods and systems for supplementing media assets during fast-access playback operations
US11128921B2 (en) Systems and methods for creating an asynchronous social watching experience among users
US12047656B2 (en) Systems and methods for aggregating related media content based on tagged content
JP7065784B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150012946A1 (en) Methods and systems for presenting tag lines associated with media assets
US20120301110A1 (en) Image processing apparatus method and computer program product
JP2009284415A (ja) コンテンツ推薦装置及びプログラム、記録媒体
JP5757886B2 (ja) テレビ放送録画予約方法、装置およびシステム
KR100872516B1 (ko) 멀티 채널 방송에서의 지역별 방송 데이터 수신 장치 및방법
US20160192016A1 (en) Methods and systems for identifying media assets
KR20150094169A (ko) 디스플레이 장치 및 그 디스플레이 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868517

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018550129

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017868517

Country of ref document: EP

Effective date: 20190611