WO2019059207A1 - 表示制御装置及びコンピュータプログラム - Google Patents

表示制御装置及びコンピュータプログラム Download PDF

Info

Publication number
WO2019059207A1
WO2019059207A1 PCT/JP2018/034581 JP2018034581W WO2019059207A1 WO 2019059207 A1 WO2019059207 A1 WO 2019059207A1 JP 2018034581 W JP2018034581 W JP 2018034581W WO 2019059207 A1 WO2019059207 A1 WO 2019059207A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
moving image
eyelid
image content
display control
Prior art date
Application number
PCT/JP2018/034581
Other languages
English (en)
French (fr)
Inventor
真人 柴田
吉村 岳雄
Original Assignee
合同会社IP Bridge1号
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 合同会社IP Bridge1号 filed Critical 合同会社IP Bridge1号
Priority to CN201880068856.9A priority Critical patent/CN111264063A/zh
Priority to KR1020207011523A priority patent/KR20200089657A/ko
Priority to JP2019543657A priority patent/JPWO2019059207A1/ja
Priority to US16/649,212 priority patent/US11146743B2/en
Publication of WO2019059207A1 publication Critical patent/WO2019059207A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Definitions

  • the present invention relates to, for example, the technical field of a display control apparatus which adds a bookmark electronically or as image data while reproducing and displaying image content, and a computer program which causes a computer to function as such an apparatus.
  • the option and freedom in the moving image content itself may be lost. That is, for the first time, it is a dedicated moving picture content constructed to be able to add an eyebrow, and it is likely that the viewer can add an eyebrow later.
  • it is a daily occurrence that moving image content that a moving image content provider or a distribution source wants to provide is frequently changed, added, or deleted. Therefore, if it is intended to add a habit to moving image content, it is considered desirable that it is desirable to be able to designate or change as needed according to simple or quick operation.
  • the present invention has been made in view of, for example, the above-mentioned technical problems, and it is desirable to add a desired bookmark to any moving picture content on the side of providing video lessons etc. or on the side of viewers. It is an object of the present invention to provide a display control device which makes it easy and possible. Another object of the present invention is to provide a computer program capable of causing a computer to function as such a display control device.
  • the display control device includes, in a screen of a display means, a first control means for playing back still pictures or moving pictures of moving picture content; In the middle of the display, the eyelid data having a predetermined shape and being independent of the moving image content is superimposed on the moving image content for a predetermined period on the time axis of the moving image content, at a predetermined position or range in the screen.
  • a second control means for displaying and a holding means for holding the eyelid data in association with a time axis of the moving image content are provided.
  • a computer program according to the present invention causes a computer to function as the display control device according to the present invention described above in order to solve the above-mentioned problems.
  • the display control apparatus performs, on the screen of the display unit, a first control unit that causes still image reproduction or moving image reproduction of moving image content; While being displayed, the eyelid data having a predetermined shape and being independent of the moving image content is superimposed on the moving image content for a predetermined period on the time axis of the moving image content, at a predetermined position or range in the screen. And second holding means for holding the eyelid data in association with the time axis of the moving image content.
  • the display control device while the moving image content is being played back as a still image or reproduced as a moving image, it is superimposed on the moving image content to form an eyebrow of a predetermined shape (or In general, note data indicating "tags,” “highlights,” “fluorescent pens” and the like are displayed for a predetermined period.
  • the “first control means” and the “second control means” according to the present embodiment are each separately formed as one unit separated or integrated together or partially integrated as an IC chip, for example, It comprises CPU, microcomputer, memory etc.
  • the first control means is a display means (that is, this embodiment) which is different from or incorporates various signals such as an image signal, an image control signal, a timing signal, and a synchronization signal corresponding to moving image content to be displayed.
  • Display means having a "screen” according to the embodiment, and performs display control of the display means.
  • the second control means provides the display means with various signals such as an image signal, an image control signal, a timing signal, and a synchronization signal corresponding to the eyelid data to be displayed superimposed on the moving image content, and performs display control of the display means.
  • “displayed on video content superimposed” means that only a part of the video content is obscured and displayed in a narrow sense, but may be present at the top, bottom, left, right, corner, or the like of the video content, It also includes the meaning of displaying as a part of a task bar, a band, a frame, a frame, a window, a sub small screen, etc. or overlapping such a task bar etc.
  • “display on moving image content superimposed” means that the data on the overlapping display is translucent display, flickering display, etc. so that the moving image content hidden in the lower part is transparently visible or partially visible The meaning is also included in the case. If necessary, various methods can be adopted as the method of displaying the eyelids, as long as it is possible to visually determine that the eyelids are present at that time while the moving image content is being displayed.
  • the display means is a personal computer, a touch panel, a mobile, a mobile terminal device, a smart phone, a mobile phone capable of displaying moving image content and ⁇ data superimposed thereon under control of the first and second control means.
  • the video contents are not limited to those for video lessons or education, but may be movies, dramas, animations, documentaries, variety, TV shopping, sports programs, etc. As stated, the habit data works accordingly.
  • video content is typically constructed as one layer data.
  • eyelid data is data independent of moving image content, and is typically constructed as other layer data different from one layer data.
  • saying that the eyebrows data is “independent from the moving picture content” means that the contents of the moving picture content or objects or elements constituting the moving picture content and the eyebrows data are not mutually linked as data.
  • the relationship between the two means that the time information on the reproduction time axis of the moving image content is related (or only) by the time information included in the bird's-eye view data. That is, typically, it means that the moving image content and the eyelid data are composed of separate layer data.
  • layer data means that two or more layers of data exist, and each piece of data exists continuously or intermittently on one time axis (typically, both data are typically Time information or time stamp), the contents are mutually independent from each other except for time, or they are not linked with each other, and when they are generated in mutually different layers, these two or two Means each of one or more data.
  • the eyelid data is associated with the time axis of the moving image content when displayed by such display means, it is added based on the time on the time axis of the moving image content only during the period in which the eyebrows are to be added in the moving image content In other words, as a result, it is possible to extremely easily realize a display state in which an eyelid is added to an arbitrary position on a display or an appearance in a moving image content.
  • the moving image content can be the same as the previous moving image content in which no habit data exists.
  • the overhead data for example, as data of a format embedded in the conventional moving image content, and it can be constructed sufficiently by adopting a simple or simple data structure as a whole. That is, when the overhead view data having such a simple or simple data structure, which is typically constructed as one layer data, is displayed by the display means, the playback time is set to the moving image content, Is displayed as a separate layer data (that is, it is independent of the eyebrows data) and is superimposed on a predetermined position or range of the picture contents, resulting in the display state where the eyebrows are added to the picture contents It becomes feasible. Even when data is added or removed, it is not necessary to modify the moving image content itself which is independent of the data.
  • the correspondence between an arbitrary object in the moving image content and the eyelid is as data regardless of the presence or absence of the object, the content, and further, the switching of the chapter scene or the angle, etc.
  • (i) between the moving image content and the eyelid data Correspondence of the playback time and (ii) For example, a period during which overhead data is added while looking at any object on the provider side or the viewer side of the video content (ie, a part of the playback time of the video content And by).
  • the correspondence is made with the help of "vision" on the provider side or the viewer side.
  • the second control means is capable of displaying the eyelid data temporarily held in the holding means, and further, the eyelid data designated or inputted by the eyelid designation input means described later (before and after the holding means is held. Can be displayed in real time).
  • the "holding means" includes, for example, a memory, a storage device, a controller, and the like. Retention of overhead data by this may be performed away from the place where the user of the display control apparatus operates via the communication means. That is, at least a portion of the holding means may be located at a remote place.
  • the display control device can be disposed in a server connected to the display means via a network.
  • a server connected to the display means via a network.
  • Such a display control apparatus can also be externally attached to or incorporated in the display means at the provider of the moving image content such as the provider of the video lesson, and can function as a so-called GUI for the provider of the moving image content.
  • the habit data is added based on the judgment of a teacher, a lecturer, other viewers, etc.
  • a viewer of moving image content such as a student of a video class
  • the habit data is added at the judgment of the student, the listener, the viewer, etc.
  • the bookmarker indicated by the bookmarker data displayed superimposed on the moving image content may be, for example, a figure imitating a bookmarker sandwiched between books on a paper medium, or a graphic like a sticky note. Alternatively, it may be simply a square or polygonal outline mark, or a round outline mark. Alternatively, it may be a mark using a hatching, a fluorescent pen, a transparent or semi-transparent display, and it is optional as long as the eyelid can be viewed on the screen.
  • such an eyebrows data performs a basic function simply by indicating the eyebrows, but as described in detail later, the eyebrows data has a function as a button for displaying a window or a pull-down menu. It is also possible to
  • the holding unit holds one or more types of index data for search according to the eyelid as a part of the eyelid data or in association with the eyelid data Do.
  • the viewer, the provider or the user is requested to indicate index data relating to habit data (for example, index data defined as indicating that he / she often goes to the test, indicating that it is a mistaken place)
  • index data relating to habit data for example, index data defined as indicating that he / she often goes to the test, indicating that it is a mistaken place
  • the index data etc. defined as it becomes extremely easy to carry out the retrieval of the bird's-eye view data.
  • the instruction to add the overhead image data is input during still image reproduction or moving image reproduction of the moving image content.
  • an eyelid designation generation means capable of specifying or generating eyelid data.
  • the viewer side who is the examinee or the provider side including the lecturer inputs the instruction to add the decubitus data using the decoy designation generation unit to the moving image content It becomes possible to add wrinkles to a desired period (ie, desired reproduction time).
  • the eyelid designation generation means receives an instruction to designate at least one of a comment, a name and a color according to the eyelid in addition to the instruction to add the eyelid.
  • the second control means may display the habit data according to the at least one accompanied by the habit data .
  • the audience who is the examinee can add his / her own comment on “commentary text”, “related matter”, “applied problem”, and the like.
  • the provider side including the lecturer and the audience side who is the examinee adds names such as "Absolutely to the test", “It's easy to take a test”, “It's easy to forget this”, “It's interesting here” be able to.
  • names such as "important", "important", and “careful” can be added to the bag.
  • the objective judgment based on statistical data has more objectivity than the subjective judgment on the provider side or the viewer side, and it is possible to distinguish different colors such as red, blue, yellow etc. It is also possible to add a bribe.
  • the eyelid designation generation unit can designate or generate the at least one on a window screen displayed on at least one of the moving image content and the eyelid data or on a pull-down menu. It may be configured.
  • the screen is a screen of a touch panel
  • the eyelid designation generation means sets the touch by the operator on the touch panel as a trigger to start the generation of the eyelid data.
  • End may be configured to be a trigger for the end of the generation of the eyelid data.
  • the eyelid data may be generated so as to display an eyelid having a variable shape according to the manner of contact.
  • the habit data in addition to the display at the position fixed in advance in the screen, the habit data may be generated so that the habit is displayed at the position in the screen which changes according to the way of contact.
  • the eyelid designation generation means uses the first operation by the operator on the mouse as a trigger to start generation of the eyelid data, and generates the eyelid data as the second operation. It may be configured to trigger an end.
  • the operator such as an examinee on the viewer side or a lecturer on the provider side, can respond to the time period between the two triggers by a simple operation such as mouse operation. It is possible to add wrinkles during a desired period, which is very convenient in practice.
  • the eyelid data is generated so that the eyelid having a variable shape according to the method of change from the first operation to the second operation is displayed as the eyelid
  • the eyelid in addition to the display at the position fixed in advance in the screen, the eyelid is displayed at the position in the screen which changes according to the method of change from the first operation to the second operation. Data may be generated.
  • the holding means sets the predetermined period as (i) a trigger for the start of generation a predetermined time before the trigger for start of generation (ii) Time index data indicating a period corresponding to time after may be configured to be held as a part of the eyelid data or in association with the eyelid data.
  • the moving image which hits before the actual operation start ie, touch on the touch panel or the first operation of the mouse
  • the moving image which hits after the end of the actual operation for adding the eyelid data by the operator that is, the touch panel release or the second mouse operation
  • the task of adding the bookmark data is simplified.
  • the first control means reproduces the moving image content when the contact or the operation of the mouse is for a time shorter than a predetermined time. It may be configured to switch from still image reproduction to still image reproduction.
  • the eyelid designation generation means is limited to the case where the contact or the operation of the mouse is for a time longer than a predetermined time.
  • the operation of the mouse may be configured as the trigger.
  • contact or operation for a longer time than a predetermined period in which the user's positive intention can be read not a short time or momentary erroneous contact or error (typically, touch on a touch panel)
  • these contacts and operations are identified as triggers only when the mouse operation is continued.
  • the contact or operation is shorter than a predetermined time, the contact or operation is not performed, and the reproduction of the moving image content is continued. Therefore, it is possible to execute designation or generation of the eyelid data in a sure manner or without any erroneous operation.
  • the second control means may trace the locus of the touch from the trigger of the start of generation to the trigger of the end of generation or the locus of operation of the mouse.
  • the eyelid data may be displayed as an effect of a fluorescent pen on the screen.
  • the eyelid data can be displayed on the moving image content as a variable shape according to the trajectory operated by the operator and as being extremely noticeable by the fluorescent pen.
  • shape of the eyebrows not only simple straight lines, but also curvilinear shapes, Japanese alphabets, stars, ending marks, exclamation marks, etc. can be made in the manner of handwriting, and even simpler characters and short sentences You can also draw in this way. As a result, it is possible to realize an eyebrow having functions beyond the original simple alert function.
  • the eyelid data may be displayed at the fixed position from the viewpoint that the presence or absence of the eyelid data can be identified more quickly through the user's vision. It can be said that it is more advantageous to display fixed shape eyelid data in a fixed position.
  • the first control means causes the moving image to be reproduced from a moving image, still picture reproduction or slow reproduction when the eyelid data is specified or generated by the eyelid designation generation means. It may be configured to switch to
  • the moving image content in the scene where it is desired to add the eyebrow data including, for example, a comment pertaining to the eyebrow, etc. It becomes possible to specify or generate data. That is, it is possible to easily perform the operation of designating and inputting the habit data. More generally, it is preferable that the moving image content is still image reproduction or stop motion or slow reproduction, from the viewpoint of designating data accurately or surely with ⁇ data accompanied with comment data or the like.
  • the moving picture content is stopped or slow-played back at a timing when the apparatus side confirms that the addition of the eyelid data is performed, or when the apparatus side confirms that the addition of the eyelid data is completed.
  • the timing at which the user makes such a pause is arbitrary.
  • the holding unit corresponds to the overhead data and identifies link destination identification information identifying a desired link destination as part of the overhead data or the overhead data
  • the second control means while the moving image content is still image reproduction or moving image reproduction, the image data relating to the link destination identified by the link destination identification information In addition to or instead of the content, it can be displayed as part of the overhead data or in association with the overhead data.
  • the image data related to the link destination corresponding to the overhead data is, for example, the operation button It is displayed by performing predetermined type operation using a touch panel, a mouse, etc. with respect to the eyelid data which has a function as, or the operation button displayed separately.
  • the user of the display control device may execute various operations related to the eyelid data while watching the video contents with his / her eyes, and the eyelid data obtained thereby can be the reproduction time of the video object content It is held by the holding means in a linked manner on the axis. Therefore, on the user side of the display control device, it is easy to put the link on and can be put into practice.
  • the display control device is accommodated in one network together with one or more other display control devices, and the second control unit is connected via the network.
  • one overhead data generated by the other display control device and a plurality of the plurality of display control devices generated by the other display control device are accommodated in the network such as the Internet together with the display control device.
  • the processed data indicating the statistical processing result based on the eyelid data can be reflected on the eyelid data displayed by the display control device.
  • the processed data is not based on the habit data pertaining to all display control devices accommodated in the network, but the habit data pertaining to only a part of the viewers who belong to a certain category (for example, viewing a specific university as a desired school It is also possible to be based on data indicating statistical processing results for overhead data pertaining to persons alone and overhead data pertaining to only viewers whose deviation value exceeds a predetermined threshold.
  • the second control means is an eyebrow mark representing the total number of eyebrows data related to the same moving image content and at least partially overlapping or identical to the predetermined period based on the processed eyebrow data. And the eyelid data may be displayed.
  • the habit data is not merely a mark indicating the fact that the habit is added, but the statistical display of the number of users by whom the habit is similarly added, for example, the number itself displayed as a text It is displayed as an eyebrow mark of a form, or as an eyebrow mark of a type having a size that changes according to the total number, or as an eyebrow mark of a type having a color that changes according to the total number. Therefore, the user can use not only the whistle data added only by their determination, but also the whistle data added by another user's determination, which is very convenient.
  • the second control means performs the process instead of the overhead data when the total number of overhead data pertaining to the same moving image content and in which the predetermined period at least partially overlaps or is equal to a predetermined threshold.
  • the finished data or in addition to the processed data it may be configured to display image data showing icons whose shape is variable according to the total number.
  • a "frenzy icon” that indicates that a large number of eyebrows data are added to the same moving image content portion It becomes possible to display an icon whose shape is fixed or whose shape is variable according to the total number, as an icon indicating that there is such a significance.
  • the display control device further includes an input unit capable of inputting a desired character or pattern during still image reproduction or moving image reproduction of the moving image content;
  • the control means can superimpose the desired character or pattern input via the input means together with the eyelid data or as at least a part of the eyelid data on the moving image content and the holding means can And storing image data indicating the character or pattern in association with the habit data.
  • a solid-state storage device removable from the computer system, such as a storage medium such as a ROM, a CD-ROM, a DVD-ROM, a hard disk, or a USB (Universal Serial Bus) memory storing the computer program.
  • a storage medium such as a ROM, a CD-ROM, a DVD-ROM, a hard disk, or a USB (Universal Serial Bus) memory storing the computer program.
  • the computer program of the present embodiment recorded by being attached to or connected to the computer system, or inserted into an appropriate reading device provided in or connected to the computer system, It can be read and executed by a computer system, and the display control device of the present embodiment described above can be realized relatively easily.
  • the present apparatus is used, for example, by a user of the display control apparatus such as a viewer of a video lesson, or by a user of the display control apparatus such as a provider of the video lesson or an examination institution.
  • the display control device 10 is a moving image display control unit 11 that constitutes an example of the first control unit according to the above-described embodiment, and an overhead display control that is an example of the second control unit according to the above-described embodiment.
  • the apparatus includes an eyelid database 13 constituting an example of the holding means according to the embodiment described above, and an eyelid designation generation unit 14 constituting an example of the eyelid designation generation means according to the embodiment described above together with the input unit.
  • the display control device 10 further includes a search unit 15 capable of searching the eyelid database 13 according to an operation by the user via the input unit 40, and a reproduction unit 16 for reproducing the moving image content provided from the moving image content database 20;
  • the moving picture content from the moving picture display control unit 11 is overlapped with the overhead view data from the overhead view display control unit 12 in a predetermined format, and the output unit 17 is displayed on the display 30.
  • the moving image content database 20 holds various moving image contents, and may be directly connected to the display control apparatus 10 (or a client apparatus including the display control apparatus 10) by wire or wireless, or may be wired via the Internet or the like. Alternatively, they may be connected wirelessly.
  • the browser part related to the minimum display function and input function of the display control apparatus 10 is mainly provided on the client apparatus side including the display control apparatus 10 partially, and displays moving image content by cloud technology It may be configured to be provided to the control device 10 or to display and output the moving image content and the eyelid data on the display 30.
  • the various moving image contents stored in the moving image content database 20 are, for example, moving image contents for video lessons or education, movies, dramas, animations, documentaries, varieties, television shopping, sports programs, and the like.
  • the display 30 is provided to a personal computer, a touch panel, a mobile, a mobile terminal device, a smartphone, a mobile phone, a high-performance TV, and the like.
  • the display 30 has a built-in or external voice output unit (not shown) that outputs voice data of moving image content.
  • the input unit 40 is an input unit in a touch panel, a mouse, a tablet, a jog dial, a trackball, a keyboard, etc., and can specify and generate eyelid data by icon operation, drawing operation, display operation, etc. Together with the eyelid designation generation unit 14, this constitutes one example of the eyelid designation generation means according to the present embodiment.
  • an eyelid designation generation is received.
  • the unit 14 generates mastication data (see FIGS. 4 and 5) as will be described in detail later. For example, a portion being reproduced at a desired reproduction time or time zone in the moving image content by using the input unit 40 and the habit designation generation unit 14 whether the user is the examinee who is the examinee or the provider side including the lecturer etc.
  • By specifying ⁇ as a part to which ⁇ should be added, ⁇ can be added to moving image content for a desired period (that is, a predetermined period).
  • the position or range where the overhead view data is displayed may be, for example, a previously fixed position or range such as the upper right corner or the lower right corner of the screen so that the presence of the overhead view data can be easily understood.
  • the user may designate, via the input unit 40, a position or a range that does not interfere with the display of the moving image content.
  • the display 30 and the input unit 40 may be separately configured, or at least partially integrated, such as a touch panel that configures the input unit 40 is overlapped on the screen of the display 30. May be configured.
  • the weir database 13 includes, for example, a memory, a storage device, a controller, and the like. Retention of overhead data by this may be performed separately from the display control apparatus 10 via a communication network such as the Internet. Alternatively, cloud technology may be configured to provide overhead data to the client device side that partially includes the display control device 10 having only the browser function.
  • the moving image display control unit 11 when the desired moving image content designated by the user via the input unit 40 or the like is provided from the reproduction unit 16, the moving image display control unit 11 generates an image signal corresponding to the moving image content, an image control signal, Various signals such as timing signals and synchronization signals are provided to the display 30 via the output unit 17. Thereby, display control concerning the display 30 is performed.
  • the eyelid display control unit 12 displays an image signal, an image control signal, a timing signal, a synchronization corresponding to the eyelid data to be displayed superimposed on the moving image content.
  • Various signals such as signals are provided to the display means via the output unit 17. Thereby, display control concerning the display 30 is performed.
  • the output unit 17 functions as a synthesis output unit that superimposes and outputs the eyelid data on the moving image content.
  • the output unit 17 "displays superimposed on moving image content" is present in the periphery, upper and lower, right, left, side, etc. of the moving image content, in addition to the case where the eyelid data is displayed simply in a form of hiding the moving image content.
  • “to display superimposed on moving image content” means that the data to be displayed overlapping is translucent display, blinking display, etc. Therefore, the moving image content (or its task bar etc.) hidden in the lower part is transparent It is the meaning including the case where it is visible or partially.
  • the display size and the display shape of the moving image content may be changed to secure an area in which the eyelid data is displayed in the screen.
  • the display output form and the audio output form of the display 30 may be changed according to a predetermined rule during the period in which the overhead data is added.
  • the scroll bar 210 extending along the lower side of the main screen 201 separately from the main screen 201, the position of the frame image currently being reproduced on the main screen 201
  • the position to be displayed may be displayed as a sub screen 202 for displaying.
  • the position of the frame image currently displayed on the main screen 201 is indicated by the horizontal position on the scroll bar 210 corresponding to the length of the entire moving image (ie, to the right as shown by the arrow 211a according to the moving image reproduction).
  • the sub-screen 202 may be configured as indicated by the current position mark 211 (which moves sequentially) and as the position of each eyelid is indicated by the eyelid mark 213 on the scroll bar 210.
  • the current position mark 211 which moves sequentially
  • the search unit 15 is configured to be able to search the database 13 by relying on the index data, the name, etc. of the bookmark data as will be described in detail later according to the operation by the user via the input unit 40. It is done.
  • the eyelid data retrieved here is provided to the eyelid display control unit 12, it is displayed superimposed on the moving image content as in the case of display of eyelid data specified and generated in real time by the eyelid designation generation unit 14. It will be
  • the moving image content synthesized by the output unit 17 is constructed as one layer data.
  • the haze data to be synthesized by the output unit 17 is not only layer data composed of other layer data (for example, the haze data merely indicating the presence of the haze, but also the haze data with the comment data etc.
  • the layer data is constructed as link layer data) which is further composed of bookmark data including data indicating a link destination linked to the hook data.
  • the reproduction unit 16 provides information indicating the reproduction position (that is, reproduction time or reproduction time) of the moving image content.
  • the bird's-eye view data is generated based on this information so as to be associated with the time axis of the moving image content.
  • the layer data constituting the eyebrows data need not be uninterrupted or continuous for all time zones of the layer data constituting the moving image content, but only for the period for displaying the eyebrows It is enough if it is done. That is, it is sufficient if the layer data constituting the eyebrows data is constructed as data existing intermittently or intermittently in the time zone of interruption only on the period of the eyebrows on the reproduction time axis of the moving image content. As a result, the data amount of the flooding data does not need to increase without a hitch.
  • the blurring data As described above, based on the information indicating the reproduction position on the time axis of the moving image content, it is possible to add the blurring data to a desired period (in other words, a desired reproduction time zone) to which the blurring data in the moving image content is to be added. That is, as a result, on the display or the appearance, the display state in which the eyelid data is added to the appropriate place for the moving image content can be extremely easily realized on the screen of the display 30.
  • a desired period in other words, a desired reproduction time zone
  • the moving image content can be the same as the previous moving image content in which no habit data exists.
  • the user operates in real time through the input unit 40 and the eyelid designation generation unit 14.
  • the Internet 1000 accommodates a server device 500 including a display control device 10 a and a plurality of client devices 1200 each including a display control device 10 b. Further, the server device 500 or the client Link destination content server device 600 for providing linked content to device 1200, moving image content server device 700 for providing moving image content to server device 500 or client device 1200, server device 500 or client device having a habit database 13R A data server 1300 is provided which provides data to the data 1200.
  • the plurality of client devices 1200 are arranged, for example, at the hands of a plurality of students taking video classes.
  • the display control devices 10 b included in the plurality of client devices 1200 are respectively configured in the same manner as the display control device 10 illustrated in FIG. 1.
  • the client apparatus 1200 is configured of, for example, a personal computer, a high-performance television, a mobile, a smart phone, etc., and the optical disc 200 d can be attached.
  • the display control device 10 (see FIG. 1) can be stored in the client apparatus 1200 if a computer program stored in the optical disc 200 d and causing the computer to execute various processes related to the eyebrow data to be described later is read and executed. Can be realized relatively easily. Alternatively, such computer programs may be downloaded to the client device 1200 via the Internet 1000.
  • the server device 500 is disposed, for example, under an examination institution or the like that distributes a video lesson.
  • the server device 500 and the moving image content server device 700 may be a common server, or both may be placed under the same candidate institution or the like, or both may be placed completely apart.
  • the display control device 10 a included in the server device 500 is configured in the same manner as the display control device 10 illustrated in FIG. 1.
  • the server device 500 includes, for example, a personal computer, a work station, a mobile, etc., and can mount the optical disc 100d.
  • the display control device 10 (see FIG. 1) can be stored in the server device 500 if a computer program stored in the optical disc 100d and causing the computer to execute various processes related to the eyelid data as described later is read and executed. Can be realized relatively easily. Alternatively, such a computer program may be downloaded to the server device 500 via the Internet 1000.
  • the link destination content server device 600 may be a server common to the server device 500, or both may be placed under the same candidate institution or the like, or both may be placed completely apart. Good.
  • data such as other content, which is present at the link destination associated with the moving image content to which the bookmark data is attached, is added to the moving image content and the bookmark data.
  • the process of displaying can be performed. That is, when the moving image content is still image reproduction or moving image reproduction and there is overhead data added, the image data concerning the link destination corresponding to the overhead data is, for example, a function as an operation button It is displayed by performing predetermined
  • the moving image content server apparatus 700 may be configured to include the moving image content database 20 shown in FIG. 1, and may further have a huge amount of moving image content data as a source. Alternatively, if the moving image content server 20 shown in FIG. 1 is disposed at the source of the server device 500 or the client device 1200, such a moving image content server device 700 can be omitted.
  • the decoy data server device 1300 may be a server common to the server device 500, or both may be located at the same examination site, or both may be located completely apart.
  • the independent eyelid data server 1300 can be omitted.
  • a person who is neither a distributor nor a viewer of moving image content of a video lesson for example, a professional who is familiar with the examination information or a skill who gives skill in tackling the examination information
  • a configuration is also possible in which the data server apparatus 1300 is operated independently of the server apparatus 500, as a person who has an operator.
  • FIGS. 4 and 5 show, for convenience, one drawing showing a data structure of a plurality of overhead data generated by one user adding to one moving image content.
  • FIG. 4 corresponds to the divided left portion
  • FIG. 5 corresponds to the divided right portion (that is, the data structure in FIG. 4 and the data structure in FIG. It is continuous).
  • the eyelid data includes a user ID (UID), a moving picture ID (Movie ID), an eyelid ID (Siori ID), and start time data (Start Time (ST). ) And end time data (End Time (ET)).
  • the eyelid data includes color designation data (Color), name data (Name), and comment data (Comments).
  • one row extending to the left and right indicates one eyelid data. That is, in this example, the weir data constructed when six weirs are added to one moving image content is shown as six lines of data.
  • the user ID is assigned a unique ID to the user of each display control device 10 (for example, the provider of the video lesson or each of a large number of viewers) (in FIG. A single ID of GK 0023 645 789 is illustrated, and it can be seen that the same user added overhead data).
  • the movie ID is an ID for each movie content, and for example, a unique ID is assigned to each of a plurality of movie contents distributed in a video class (in the figure, a single ID "Movie001A" Is illustrated, and it is understood that it is the bird's-eye view data added to the same moving image content).
  • the ⁇ ID (Siori ID) is uniquely assigned to each of the ⁇ data added to the combination of the user ID (UID) and the moving image ID (Movie ID) (in FIG. 45789 ′ ′ and “001A” relating to the moving picture ID are combined, and further, an ID in which a serial number is combined is exemplified.
  • the start time data (Start Time (ST)) is a time code on the reproduction time axis of the moving image content for which the display of the eyelid data should be started (in the figure, a specific time indicated in units of hours, minutes, seconds, etc. Reproduction time) is shown.
  • End time data (End Time (ET)) indicates a time code on the reproduction time axis of the moving image content for which the display of the eyelid data should be ended.
  • color designation data (Color) is displayed according to a degree of importance recognized as a user who designated / generates, for example, habit data under a preset rule or according to the preference of the user.
  • the color of the eyelid data is specified, and the moving image content part with the eyelid added is red (Red) indicating that it is the most important, (not important whether it is important or not ) Blue for indicating that it is interesting (Blue) or yellow for indicating that it is important (Yellow) is shown separately for the eyelid data.
  • Name data (Name) indicates a preset category. Names such as “important !”, “interesting”, “put in test”, etc. are text data, and it is the judgment by the user who designates / generates ⁇ data, etc. It is something which is given according to the habit data.
  • the same name is allowed to be attached to a plurality of bird's-eye view data, and can be used as index data for search. That is, for example, if only the part to which the name data (Name) “To go to the test” is added and the gaze data is added, the examinee himself or another examinee student or the lecturer judged it to literally go “to go to the test”. It is also possible to view only the part.
  • the comment data indicates, for each ⁇ data, a comment data freely and arbitrarily created by a user who designates or generates ⁇ data and writes it as text data. Alternatively, freely and arbitrarily selected ones from typical plural types of comments are shown separately for habit data. By this, it is possible to write the background situation, reason, etc. to which the decoy data is added in plain text or in detail. It is also possible to use comment data as a search keyword. That is, it is possible to view or refer to the comment data created in this way later. In addition, as comment data, even if it is not created, it is completed as the ⁇ data, and it is possible to add, correct, delete, etc. comment data to the post-completed ⁇ data later .
  • the haze data illustrated in FIG. 4 and FIG. 5 includes the name, the comment, etc. and is convenient, but the haze data has its basic function as long as it is transmitted to the viewer that a wrinkle is attached. It will hold if it has. For example, there is no portion shown in FIG. 5, and the haze data is established only from the portion shown in FIG. From the point of view of reducing the effort of adding flooding data, the flooding data may have such a simple and minimal basic function.
  • the habit data in addition to or in place of the above-mentioned habit data (see FIG. 4 and FIG. 5), the habit data relates to the user indicated by the user ID (i.e. examinee) It may be configured to include the ground, the first desired school, the second desired school, and the deviation value. Alternatively, data including the registered place and the like as shown in FIG. 6 may be recorded and held in a form in which it is linked to the flooding data (see FIGS. 4 and 5).
  • FIG. 7 shows a series of operations when the display control device 100 generates and stores the eyelid data.
  • FIG. 8 shows a series of operations at the time of searching the moving image content portion to which the eyelid data has been added by the display control apparatus 100, in other words, “jumping to the place where the eyelid has been added”.
  • FIG. 9 is a conceptual diagram showing a data configuration of a moving image list indicating the presence or absence of a wrinkle or the like according to the content of the moving image content.
  • FIG. 10 shows a series of operations when downloading display data of another user by the display control apparatus 100.
  • step S11 moving picture content such as a video lesson is reproduced by the moving picture display control unit 11 (see FIG. 1) or the like. Meanwhile, whether or not the input unit 40 is clicked as, for example, a touch panel operation or a mouse operation on the screen of the display 30 is continuously determined by the eyelid designation generation unit 14 (see FIG. 1) or the like (Step S12: No ).
  • step S12 if it is determined that the button is clicked (step S12: Yes), it is determined whether or not the button is further pressed for 1 second or more, that is, the conscious pressing or touching action by the user for 1 second or more Whether or not it has been performed is determined by the eyelid designation generator 14 or the like (step S13).
  • step S13 if it is determined that the button is not pressed for one second or more (step S13: No), the screen display is paused, and the process is shifted to normal moving image processing.
  • step S13 if it is determined that the button has been pressed for one second or more (step S13: Yes), the user designated by the user as a positive instruction to add a wrinkle from the user is recognized by the wrinkle designation generator 14 or the like (step S14). That is, in the present embodiment, when such a click operation for one second or more is performed, a place or a portion where the click operation of the moving image content is performed under a rule known to the user beforehand set ( In other words, at the reproduction time), it is recognized by the eyelid designation generation unit 14 or the like that the user has made an operation input to add eyelid data.
  • a user operation to add such a habit is performed to a place where a user goes out for an examination or an important place, a place to be reconsidered because they can not be understood.
  • step S15 the eyelid designation generation unit It is judged by 14 and the like (step S15). This determination is continued until it is determined that the finger has been released (step S15: No). At this time, the time until the finger is released in step S15 after being clicked in step S12 (more specifically, the time on the reproduction time of the moving image content or the elapsed time since the click on step S12) is ⁇ It is measured by the designated generation unit 14 or the like.
  • step S15 if it is determined that the finger has been released (step S15: Yes), it is determined by the eyelid designation generator 14 or the like that the work of adding the eyebrows has ended (step S16). That is, in the present embodiment, when the click is released after such a click operation of one second or more is performed, the release of the click on the moving image content is performed under a rule known to the user. In the place or place (in other words, the playback time) performed, the user wants to stop the addition of the whistle data, or the one with a positive operation input indicating that the whistle addition is sufficient until then, ⁇ designation It is recognized by the generation unit 14 and the like.
  • the end time data ET (see FIG. 5) is a margin from the current time (more specifically, the current time indicated by the time code or time stamp) and For example, it is generated by the eyelid designation generation unit 14 or the like as a result of adding 2 seconds (+2 seconds) (step S16).
  • the value of this margin can be set to a desired value by the user.
  • a margin is calculated from the time when the click is started in step S12 (more specifically, the time indicated by the time code or time stamp when the click is started). For example, assuming that 2 seconds have been subtracted (-2 seconds), before or after the generation of the end time data ET in step S16 (for example, when it is determined Yes in step S13, it is assumed that in step S14 When it is recognized, or at the time of step S16), it is generated by the eyelid designation generation unit 14 or the like.
  • the value of this margin can be set to a desired value by the user.
  • the start time data ST and the end time data ET that is, the basic part of the eyelid data is generated.
  • step S17 a confirmation as to whether the haze data generated in the above steps should be stored or canceled is executed by the haze designation generation unit 14 or the like via the display 30 and the input unit 40 (step S17).
  • step S17 cancellation
  • the menu screen is erased and the screen display is paused, and the process is shifted to normal moving image processing. For example, in the case where the user thinks that there is nothing to add a wrinkle during the work of generating wrinkle data, this corresponds to the case of cancellation here.
  • step S17 a menu screen of a predetermined format is displayed in a pop-up on the display 30 (for example, see FIG. 13 described in detail later)
  • the change, the designation of the name and the text constituting the comment, and the input are executed through the input unit 40 and the like (step S18).
  • designations or inputs it is convenient to use commonly used ones as default values, and to change or correct them.
  • color designation data Color
  • Name data Name
  • comment data that is, an applicable part of the eyelid data is generated.
  • the user ID and the moving image ID are attached with a bribe ID (see FIG. 4), and formal bribe data in which a bribe ID is assigned to the bribe database 13 (see FIG. 1) (see FIGS. 4 and 5) Are stored (step S19). That is, as the layer data constituting the eyelid data, or on the hierarchy of the eyelid data, the eyelid is displayed from the start time ST to the end time ET at a predetermined position in the screen (for example, upper right in the screen) , Data are generated. No change correction or the like is performed on the moving image content itself depending on whether or not a wrinkle is attached.
  • step S19 When the storage in step S19 is executed or completed, the menu screen is erased, and the pause state etc. before the menu screen is displayed are returned (step S20). Processing ends.
  • FIG. 8 first, a list of moving pictures associated with the user ID as shown in FIG. 9 is displayed.
  • This list is a summary of the animation (eg "Physical Day 1", “Physical Day 2", “English Day 1", etc. Content Summary ("Contents"), and “Tanaka”, “Suzuki” etc.
  • the lecturer name etc. it is displayed whether or not it has already been viewed, and whether there is a habit or the like.
  • the user refers to, for example, moving image content such as the “physical class day 16” video of the video class.
  • the moving image display control unit 11 when selected, if it is the first viewing or there is no habit, according to the user's designating operation of moving image content by a user such as a student, the moving image display control unit 11 (see FIG. 1) etc.
  • the moving image content is reproduced as moving image and referenced by the user. More specifically, for example, when there is a wrinkle, it becomes a position display screen, and it is possible to select reproduction from the beginning or reproduction from the wrinkle position.
  • the user touches the eyebrows to reproduce from there.
  • a portion to which a particularly important wrinkle is added may be displayed as a thumbnail (step S21).
  • step S22 During reproduction of the moving image content, based on the ID of the moving image content or the ID of the moving image content and the user's own ID, an instruction to refer to the overhead data added to the moving image being reproduced Is determined by the user via the input unit 40 or the like (step S22). This determination is repeatedly performed periodically or irregularly while the moving image is referred to (step S22: No). In addition, even in the reproduction time zone in which the eyelid data is present for the moving image content being reproduced, depending on the situation, the user may continue to watch the moving image content as in the case where the eyelid data is not present. It is possible.
  • the eyelid data list is superimposed on the moving image content in a predetermined format or It is displayed adjacent to (step S23).
  • the display of the list here may be always displayed at a position or range that does not get in the way of the moving image content on the screen, or when there is an operation input to display the bookmark list by the user.
  • the moving image content may be appropriately displayed at a position or a range that does not interfere with the moving image content, or may be appropriately displayed at a position or a range that causes the moving image content to be disturbed.
  • step S24 When list selection is performed by the user via the input unit 40 or the like, that is, when one piece of selection data is selected from the list including one or more pieces of selection data, the selected selection data is selected.
  • the relevant ⁇ ID, the start time ST, etc. are referred to (step S24). These are included in each flooding data (see FIG. 4).
  • the screen is moved to the start time ST of the corresponding screen.
  • the playback location on the playback time axis is moved to a time that matches the start time ST, and playback of the moving image content there is started (step S25).
  • Such reproduction is performed even if the moving image content is temporarily paused (POSE), that is, in response to an operation input instructing to start reproduction of a predetermined type after the still image reproduction or the moving image is stopped.
  • the video playback may be started immediately or after a pause period without requiring further operation input.
  • processing for displaying the designated eyelid mark on the upper right of the screen of the display 30 is executed by the eyelid display control unit 12 (see FIG. 1) or the like (step S26).
  • step S27 the display of the eyelid mark (step S26) and the display of the moving image content (step S27) may be performed simultaneously, or the latter may be started slightly ahead of the former.
  • the display of the eyelid mark is erased by the eyelid display control unit 12 or the like according to the eyelid data (step S28 ).
  • the motion picture reproduction of the motion picture contents can be continued as it is (that is, only the display of the ⁇ mark disappears).
  • the reference operation using the eyelid data in other words, a series of processes related to the jump operation to the place where the eyelid is added is completed.
  • the eyebrows data can be separately searched on the eyebrow database 13 (see FIG. 1) for each moving image. Is configured. Furthermore, depending on various conditions, it is possible to extract the habit data (for example, the habit data with a personal ID of which the desired school in the data of the personal ID is picked up and designated as the wish school A, the deviation value is high Data, etc., which are picked up by persons and whose personal IDs are attached, are constructed so that they can be extracted). Further, the eyelid data is separately stored in the eyelid database 13 for each moving image ID.
  • the habit data for example, the habit data with a personal ID of which the desired school in the data of the personal ID is picked up and designated as the wish school A, the deviation value is high Data, etc., which are picked up by persons and whose personal IDs are attached, are constructed so that they can be extracted.
  • the eyelid data is separately stored in the eyelid database 13 for each moving image ID.
  • step S31 selection of target moving image content is performed by one user (step S31). For example, a lecture to be a target is selected from the lecture list displayed on the display 30 by a user operation or the like via the input unit 40 as corresponding to a large number of video classes.
  • step S32 a process of determining whether downloadable (DL) downloadable overhead data is present for the selected moving image content is executed. As a result of the determination, if there is no decoy data (step S33: No), the download can not be executed, and the process relating to the download ends.
  • step S33 when there is habit data (step S33: Yes), one or more persons each having a specific condition among the individuals possessing the habit data are individually generated / designed or possessed habit data Display of the list of eyebrow sets is performed. For example, a bag set in which only a bag data to which an individual ID designated as a desired school A is added is extracted, a bag set in which only a bag data to which a personal ID classified as a desired school B is added is extracted , And is listed in a predetermined format on the display screen of the display 30 (step S34).
  • the selection of the target eyebrow set is performed by the user (step S35). For example, if the desired school is the desired school B, from the viewpoint of examining the trends of rivals, etc., only the data with the personal ID of the desired school B is added from among the set displayed on the display 30 The eyelid set is selected by a user operation or the like through the input unit 40.
  • step S36 confirmation of whether there is an error in this selection (that is, whether it is OK) is performed via the input unit 40 (step S36).
  • step S36 if the selection of the eyebrow set is not OK (step S36: No), the process relating to the download ends.
  • step S36 if the selection of the eyebrow set is OK (step S36: Yes), the downloaded eyebrows data is overwritten on the own eyebrow data (step S37). Specifically, processing is performed to add the downloaded bookmark data to the existing bookmark data for the moving image ID related to the downloaded bookmark data on the bookmark database 13 of the user. Alternatively, processing may be performed to partially or completely replace the existing habit data with the downloaded habit data. Thus, the series of download processing ends.
  • time T4 is three seconds after time T3, that is, the touch operation on the input unit 40 (see FIG. 1) is performed for only three seconds.
  • the overhead data is being added, it is possible to input the color data, the name data and the comment data (see FIG. 5) as described above through a pop-up menu or the like displayed on the screen.
  • the display control device 10 recognizes that the user's operation to add one eyebrow data has been completed, and the start time ST relating to the eyebrow data (see FIG. 4) is actually a touch It is set to time T1 which is considered to be " ⁇ placement start position" which is two seconds before time T2 (in other words, it is a position which goes back three seconds from recognized time T3).
  • the end time ET (see FIG. 4) related to the eyelid data is a time when it is regarded as the “eyelid end position” which is two seconds later than the time T4 when the touch is actually ended. It is set to T5.
  • the period in which the eyelid data is added is 8 seconds (that is, the period from time T1 to time T5).
  • the specific display screen for adding the ⁇ data is further described. Add a description.
  • the left side of FIG. 12 shows an example of the display screen of the display 30 when the bird's-eye view data is added to the moving image content being displayed as a moving image.
  • the right side of FIG. 12 shows an example of the display screen of the display 30 when the eyelid data is displayed as an eyelid mark on the moving image content after the storage screen is made OK on the display screen on the left side in the drawing.
  • a menu screen 30a including operation buttons such as “comment” and “deletion” is displayed. These can be designated or selected respectively via the input unit 40 (see FIG. 1).
  • an input screen for changing the name of the user from its default value by text input or the like (for example, the user selects or designates an easy-to-understand name of the user Screen or a screen for text input) is expanded as window display or pop-up display (see step S18 in FIG. 7).
  • an input screen for changing the color of a rose from its default value for example, a screen for selecting a color of a bookmark from red, yellow, green, blue, and white
  • window display or pop-up display see step S18 in FIG. 7
  • an input screen for text input of a comment (for example, a screen capable of inputting 50 characters) is expanded as window display or pop-up display (see step S18 in FIG. 7).
  • menu screen 30a and the window screen 30b are shown largely on the left side of FIG. 12 until the menu screen 30a and the window screen 30b are extracted from the screen of the moving image content, for convenience of explanation. 1) is displayed at a position that fits within the display screen 30-1.
  • an eyelid mark 30d indicating that eyelid data exists is a moving image
  • the content is displayed on the upper right of the display screen 30-2 in which the content is being reproduced.
  • the eyelid mark 30d is a rectangle, and the moving image content being reproduced (for example, within 5 seconds before and after the moving image content to which the eyelid data is added)
  • the total number of users ("244" in this example) to which the bookmark data has been added is displayed as text for at least a part of the document.
  • Such data relating to the total number of people is acquired, for example, from a large number of client devices 1200 by collecting data from acupuncture and data processing apparatus 1300 that performs statistical processing via the Internet 1000 (see FIG. 3).
  • the moving image content may be displayed as a moving image, or may be temporarily switched to a still image display. If a still image is displayed, input operation using the menu screen 30a can be performed with sufficient time, which is convenient.
  • the addition operation of the eyelid data can be performed on the reproduction screen of the moving image content, and when the addition is completed, the user adds the eyelid data in the same manner as the user. It becomes possible to easily and quickly know the total number of other users (in other words, the trends of rivals).
  • FIG. 13 shows an example of the display screen of the display 30 when searching for eyelid data for moving image content being displayed as a moving image.
  • the right side of FIG. 13 shows the display when the eyelid data is displayed as an eyelid mark on the moving image content after a search (specifically, an operation for selecting a name in the list) is performed on the display screen on the left side in FIG.
  • a search specifically, an operation for selecting a name in the list
  • list screen 30e is displayed.
  • the list screen 30a is shown largely out of the screen of the moving picture content, but in actuality, the list screen 30a is a moving picture content or display 30 (see FIG. 1). It is displayed at a position that fits within the display screen 30-3.
  • the total number of users of the user who added overhead data to the video content being played (for example, at least a part of the video content within 5 seconds before and after the dynamic content to which the overhead data is added) "687" is displayed as text.
  • Such data relating to the total number of people is acquired, for example, from a large number of client devices 1200 by collecting data from acupuncture and data processing apparatus 1300 that performs statistical processing via the Internet 1000 (see FIG. 3).
  • FIG. 14 schematically shows habit data of three users A, B and C
  • FIG. 15 schematically shows habit data of three users D, E and F. It is done.
  • the user A has the Siori A file 13a including the decoy data sioriA1 to sioriA-7 as a file generated or downloaded by his client apparatus or the like or as a default file.
  • the user B has the Siori B file 13 b including the decoy data siori B 1 to siori B 10 as a file generated or downloaded by his client device or the like or as a default file.
  • the user C has the Siori C file 13c including the decoy data siori C1 to siori C-5 as a file generated or downloaded by his client device or the like or as a default file.
  • a Siori file may be held and managed by each client device, it is uploaded on the cloud separately from each personal information, and is shared or shared by a plurality of client devices as shared information, as appropriate. It may be referred to.
  • the user D adds in addition to insult data siori B1 to siori B-10 (ie, the Siori A file shown in FIG. 14), insult data siori D1 to siori D-4 (in the figure, file set 13D-a). (A portion enclosed by a circle) is downloaded as Silo file set 13D as a generated, downloaded, or default file for its own client device.
  • the user E adds, to the eyelid data sioriA1 to sioriA-7 (that is, the Siori A file shown in FIG. 14), the eyelid data sioriE1 to sioriE-6 (in the figure, a portion surrounded by a circle as the file set 13E-a. ) Is downloaded and stored as a default file or file generated or downloaded for its own client device.
  • the user F adds to the decoy data siori C1 to sior C5 (that is, the Siori C file shown in FIG. 14), the decoy data siori F1 to siori F-6 (in the figure, a portion surrounded by a circle as the file set 13F-a).
  • the download data file 13F is included as a generated, downloaded, or default file for the client apparatus.
  • the downloaded siori file is additionally recorded (that is, the user owns a file owned by the user prior to the download and is left without being lost). It is possible.
  • FIG. 16 to FIG. 19 show four types of icons whose shape or shape changes in accordance with the total number of people to which such habit data is added.
  • the total number of people for example, the number of users who added overhead data to at least a part of the moving image content within 5 seconds before and after the moving image content to which the overhead data is added Do. Then, an icon whose shape or shape changes in accordance with the change in the total number of people obtained as a result of such counting is displayed.
  • the icon shown in FIG. 16 (specifically, the “smile mark” icon) If it is displayed and the total number is meaningful (for example, about 10% to 50% of all the listeners) between N2 and N3, the icon in FIG.
  • the icon shown in FIG. 18 (specifically, the “excite” icon) is displayed between N3 and N4 which are displayed and the total number is large (for example, about 50% to 90% of all the listeners). If the total number is between N4 and N5, which is the largest number (for example, 85 to 90% of the total audience or more), the icon shown in FIG. 19 (specifically, the "enthusiasm” icon) is displayed. Ru.
  • Such data relating to the total number of people is acquired, for example, from a large number of client devices 1200 by collecting data from acupuncture and data processing apparatus 1300 that performs statistical processing via the Internet 1000 (see FIG. 3).
  • the data concerning the total number of persons is obtained, for example, as measuring the overhead data of all the users on the same moving image content timeline, and indicating the total number thereof.
  • the shape etc. of a frenzy icon which is known or noticeable on the screen and which is known to the user in advance is defined.
  • a "frenzy icon” indicating that a large number of bookmark data is added to the same moving image content portion is made to stand out or stand out on the screen when the total number of bookmark data is equal to or more than a predetermined threshold. Is displayed.
  • the frenzy icon shown in FIG. 19 in which the user is informed in advance of the meaning and is very conspicuous visually is adopted.
  • the determination is in agreement, and if it is a moving image content portion to which ⁇ data is added as “important”, such a condition is The eyelid data (in this case, an enthusiasm icon) to be displayed is displayed, and each user can easily use it.
  • the measurement of the number of habit data is the same persona as the user (for example, the same candidate school or another user with an approximate deviation value).
  • FIG. 20 Next, a further embodiment will be described with reference to FIGS. 20 and 21.
  • FIG. 20 Next, a further embodiment will be described with reference to FIGS. 20 and 21.
  • an input is made during still image reproduction or moving image reproduction of a moving image content portion to which overhead data 30g is added in display screen 30-5.
  • a desired character or pattern can be input by the user via the unit 40.
  • the eyelid display control unit 12 displays the desired character or pattern 30h input through the input unit 40 together with the eyelid data 30g, as shown in the right side of FIG. It is configured to be able to overlap and be displayed.
  • so-called "graffiti” is possible while displaying the eyelid data 30g as an eyelid mark. Therefore, by the presence of both the character or pattern 30h and the eyelid data 30g, the user can realize a display with a larger amount of information or a higher degree of freedom visually for the desired part of the moving image content.
  • the eyelid display control unit 12 sets the locus of touch of the touch panel in the input unit 40 or the locus of operation of the mouse as eyelid data or eyelid marks on the display screen of the fluorescent pen. You may comprise so that it may display by production. That is, as shown on the right side of FIG. 20, the character to be scribbled or the drawing 30h may also function as a drop mark in place of the drop data 30g. Then, the eyelid data can be displayed on the moving image content as a variable shape according to the locus operated by the user and as being extremely noticeable by the fluorescent pen. With regard to the thumbnails described above (see step S21 in FIG. 8 and the description thereof), that is, the thumbnails indicating a portion to which particularly important wrinkles are added, it is effective to select the position where this highlighter is written.
  • the moving image content portion to which the eyelid data 30i is added as an eyelid mark is being reproduced during still image reproduction or moving image display on the display screen 30-7.
  • the image data of the link destination linked to the bookmark data 30i is called out, as shown on the right side of FIG.
  • the image data of the link destination is configured to be displayable in the display screen 30-8 in a predetermined format (specifically, window display or the like).
  • image data related to the link destination corresponding to the bookmark data 30i (for example, it can be acquired from a link destination server that presents a problem, an answer, and an explanation related to a portion related to the moving image content to which the bookmark data is added)
  • a moving image data or still image data has a function as an operation button, and a predetermined type of operation is performed using a touch panel, a mouse, etc., which constitute the input unit 40 (see FIG. 1). Is displayed.
  • the desired link destination can be easily specified, set, changed, added corresponding to the desired location in the moving image content. And so on.
  • overhead data it is possible to select a link destination on moving image content using a much smaller amount of data than constructing various data for specifying a link for each frame of moving image content. , Can be built.
  • the content that the lecturer speaks in the moving image is divided by a clause, a very short chapter or chapter
  • the eyebrow data may be stored in units of clauses or the like.
  • the division into clauses or the like can be made by listening by a person or by appropriate operation input, or by AI.
  • Such an arrangement of phrases or the like arranged irregularly in time also constitutes one type or modification of the "time axis" according to the present invention.
  • what constitutes the “time axis” according to the present invention may be time information itself such as a time stamp, or a sequence of clause numbers, chapter numbers, track numbers, etc. that change in ascending order as time passes. Or it may be an array or the like.
  • the desired data to be added can be easily specified as a result corresponding to any object. , Setting, changing, adding, etc.
  • the program required to realize the display control device can be simplified, and the processing time, the processing amount, or the data amount can be significantly reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

動画コンテンツに対し、所望の栞(しおり)を付加することを容易にして可能ならしめる。表示手段(30)の画面内に、動画コンテンツを静止画再生又は動画再生させる第1制御手段(11)と、動画コンテンツが静止画再生又は動画再生されている最中に、画面内の所定位置若しくは範囲に、所定形状の栞を示す栞データを、動画コンテンツの時間軸上で所定期間だけ動画コンテンツに重ねて表示させる第2制御手段(12)と、栞データを動画コンテンツの時間軸に対応付けて保持する保持手段(13)とを備える。

Description

表示制御装置及びコンピュータプログラム
 本発明は、例えば、画像コンテンツを再生表示中に、栞(しおり)を電子的に或いは画像データとして付加する表示制御装置及び、コンピュータをそのような装置として機能させるコンピュータプログラムの技術分野に関する。
 この種の装置として、紙からなる本に栞を挟むのと同じ要領で、画面表示された本のページ或いは電子文書に「電子的な栞」を付加するものが開発され(市販の各種電子書籍リーダー参照)、各種の提案がなされている(特許文献1~3参照)。
特開2013-168082号公報 特開2013-8071号公報 特開2012-221388号公報
 しかしながら、これらの背景技術によれば、静止画コンテンツに対して栞を付加することは可能であるものの、動画コンテンツに対して栞を付加することはできない。即ち、動画コンテンツのうち重要な部分や後で見返したい部分を、見返すためには、基本的にその部分の場所を記憶しておくしかない。
 例えば、動画コンテンツのフレーム画像の一枚一枚を静止画コンテンツとして扱い、各静止画コンテンツに栞データを付加することは、これらの背景技術の応用により可能かもしれない。しかし、そのためには、極めて多数の静止画コンテンツ(即ち極めて多数のフレーム画像)に対して、栞データを付加する必要性が生じ、ユーザに強いられる付加作業の量、装置に求められるデータ処理量、処理や保持すべきデータ量等の各種観点から実践的ではない。
 仮に、動画コンテンツの提供者側や視聴者側で、栞を付加する作業に関して、動画コンテンツの一部として動画中に存在するオブジェクトに、栞を示す画像部分を埋め込む作業を行うのであれば、基本的に、コンピュータプログラムの知識、或いはシステムエンジニア知識といった専門性が必要とされる。或いは、シーンやアングルが任意に変化し得る、千差万別の動画コンテンツの内容や動きに応じて、栞を付加する装置或いはデータを構築すること自体が、総じて複雑高度で大掛かりなものとなってしまいかねない。
 他方で、動画コンテンツに対して栞を付加することを可能にすると、動画コンテンツ自体における任意性や自由度が失われてしまいかねない。即ち、栞を付加することが可能に構築された専用の動画コンテンツであって初めて、後に視聴者が栞を付加できるようになってしまいかねない。特に、本願発明者らによる研究によれば、動画コンテンツの提供元或いは配信元が提供したい動画コンテンツは、頻繁に変更、追加、削除されることが日常茶飯事である。よって、動画コンテンツに対して栞を付加しようとするのであれば、簡単な或いは迅速な操作で臨機応変に指定や変更できることが望ましいものと思料される。
 本発明は、例えば上述の技術的問題点に鑑みてなされたものであり、映像授業等の提供元の側で或いは視聴者の側で、任意の動画コンテンツに対し、所望の栞を付加することを容易にして可能ならしめる、表示制御装置を提供することを一の課題とする。本発明は、コンピュータを、そのような表示制御装置として機能させることが可能なコンピュータプログラムを提供することを他の課題とする。
 本発明に係る表示制御装置は上記課題を解決するために、表示手段の画面内に、動画コンテンツを静止画再生又は動画再生させる第1制御手段と、前記動画コンテンツが静止画再生又は動画再生されている最中に、前記画面内の所定位置若しくは範囲に、所定形状の栞を示すと共に前記動画コンテンツから独立した栞データを、前記動画コンテンツの時間軸上で所定期間だけ前記動画コンテンツに重ねて表示させる第2制御手段と、前記栞データを前記動画コンテンツの時間軸に対応付けて保持する保持手段とを備える。
 本発明に係るコンピュータプログラムは上記課題を解決するために、コンピュータを、上述した本発明に係る表示制御装置として機能させる。
 本発明のこのような作用及び他の利得は、これ以降に説明する実施形態により明らかにされる。
<表示制御装置>
<1>
 本実施形態に係る表示制御装置は上記課題を解決するために、表示手段の画面内に、動画コンテンツを静止画再生又は動画再生させる第1制御手段と、前記動画コンテンツが静止画再生又は動画再生されている最中に、前記画面内の所定位置若しくは範囲に、所定形状の栞を示すと共に前記動画コンテンツから独立した栞データを、前記動画コンテンツの時間軸上で所定期間だけ前記動画コンテンツに重ねて表示させる第2制御手段と、前記栞データを前記動画コンテンツの時間軸に対応付けて保持する保持手段とを備える。
 本発明に係る表示制御装置によれば、動画コンテンツが静止画再生又は動画再生されている最中に、動画コンテンツに重ねて、所定形状の栞(或いは、広義には、狭義の「栞」に限らず、一般に「付箋紙」、「ハイライト」、「蛍光ペン」などと称されるものも含む)を示す栞データが所定期間だけ表示される。本実施形態に係る「第1制御手段」及び「第2制御手段」は夫々、相互から独立した別々の若しくは一体に纏められた一つのユニット又は部分的にICチップとして一体形成された、例えば、CPU、マイコン、メモリ等を備えて構成される。
 第1制御手段は、表示しようとする動画コンテンツに対応する画像信号、画像制御信号、タイミング信号、同期信号等の各種信号を、自らとは別体の又は自ら内蔵する表示手段(即ち、本実施形態に係る「画面」を有する表示手段)に提供し、該表示手段の表示制御を行う。第2制御手段は、動画コンテンツに重ねて表示しようとする栞データに対応する画像信号、画像制御信号、タイミング信号、同期信号等の各種信号を表示手段に提供し、該表示手段の表示制御を行う。
 なお「動画コンテンツに重ねて表示」するとは、狭義には動画コンテンツの一部を重なった部分だけ見えなくして表示する意味であるが、動画コンテンツの上下左右、隅、角等に存在し得る、タスクバー、帯、額、枠、ウインドウ、サブの小画面等の一部として若しくはそのようなタスクバー等に重ねて表示する意味も含む。更に、「動画コンテンツに重ねて表示」するとは、重ねて表示される栞データが半透明表示、点滅表示等であるためその下部に隠れた動画コンテンツが半透明等で透けて或いは部分的に見える場合も含む意味である。要すれば、動画コンテンツを表示中に、その時点で栞が存在することが視覚的に判別できる限りにおいて、栞の表示方法としては、各種方法が採用可能である。
 いずれの場合にも、表示手段は、第1及び第2制御手段による制御下で、動画コンテンツ及びこれに重ねて栞データを表示可能な、パソコン、タッチパネル、モバイル、ケータイ端末装置、スマートフォン、ケータイ電話、高機能テレビなどに備えられるものである。他方、動画コンテンツについては、映像授業用或いは教育用のものに限らず、映画、ドラマ、アニメ、ドキュメンタリ、バラエティ、テレビショッピング、スポーツ番組など任意であり、いずれの用途の場合にも、以下に詳述されるように、栞データは相応に機能する。
 ここで特に、動画コンテンツは、典型的には一のレイヤーデータとして構築されている。これに対し、栞データは、動画コンテンツから独立したデータであり、典型的には一のレイヤーデータとは異なる他のレイヤーデータとして構築されている。
 本実施形態において、栞データが「動画コンテンツから独立」しているとは、動画コンテンツの内容或いは動画コンテンツを構成するオブジェクトやエレメントと、栞データとは、相互にデータとして紐付けられておらず、両者の関係は、動画コンテンツの再生時間軸上の時刻情報と、栞データが有する時刻情報とによって(或いは、よってのみ)関係付けられていることを意味する。即ち、典型的には、動画コンテンツと栞データとは、別々のレイヤーデータから構成されていることを意味する。また「レイヤーデータ」とは、二つ或いは二階層以上のデータが存在しており、各々のデータが、一つの時間軸上で連続的に或いは断続的に存在し(典型的には両データ共に時刻情報或いはタイムスタンプを有し)、時刻を除く内容的には相互から独立しており或いは相互に紐付けられておらず、相互に異なる階層において生成されている際における、これら二つ或いは二つ以上のデータの各々を意味する。
 このような表示手段による表示に際し、栞データは、動画コンテンツの時間軸に対応付けがなされているので、動画コンテンツの時間軸上の時刻に基づくことで、動画コンテンツにおける栞を付加したい期間だけ付加することを、言い換えれば、結果的に表示上或いは外観上は動画コンテンツにおける任意のオブジェクトに対して適所に栞が付加されている表示状態を、極めて容易に実現できる。
 よって、動画コンテンツは、栞データが存在しない従前の動画コンテンツのままで済む。他方で、栞データについては、例えば従前の動画コンテンツに埋め込まれる形式のデータとして構築される必要性は無く、総じて簡易或いは単純なデータ構造を採用することで十分構築可能となる。即ち、そのように簡易或いは単純なデータ構造を有する、典型的には一つのレイヤーデータとして構築されている栞データを、表示手段で表示する際に、再生時刻を動画コンテンツに合わせて、典型的には別のレイヤーデータとして構築されている(即ち、栞データからは独立している)動画コンテンツの所定位置或いは範囲に重ねて表示すれば、結果的に栞を動画コンテンツに付加した表示状態が実現可能となる。栞データを付加したり、取り除いたりする場合にも、栞データから独立している動画コンテンツ自体に対しては、手を加えなくて済む。
 このように動画コンテンツ中の任意のオブジェクトと栞との対応付けは、データとしてはオブジェクトの存否や内容、更にチャプタ・シーンやアングルの切り換え等によらずに(i)動画コンテンツ及び栞データ間の再生時刻の対応付けと(ii)例えば動画コンテンツの提供者側や視聴者側で、任意のオブジェクトを見ながら栞データが付加された期間(即ち、動画コンテンツの再生時間のうちの一部の期間)とによって行われる。言い換えれば、提供者側又は視聴者側における“視覚”の助けを借りて対応付けがなされる。
 従って、例えば、動画コンテンツのうち、視聴者側若しくは提供者側が重要である或いは難しいと感じた所望の部分に栞を付加することが可能となり、事後的に、栞データを頼りに、それが付加された動画コンテンツ部分のみを、今一度或いは複数度、見直すことが可能となる。或いは、例えば、保持された栞データを頼りに、動画コンテンツの所望個所ばかりを選択的に再生することや検索することも可能となる。
 なお、第2制御手段は、保持手段に一旦保持された栞データを表示可能である他、後述の栞指定入力手段により指定或いは入力される栞データを(保持手段に保持するのに相前後して又は同時並行的に)リアルタイムで表示可能であってもよい。
 本発明に係る「保持手段」は、例えば、メモリ、記憶装置、コントローラ等を備えてなる。これによる栞データの保持は、通信手段を介して当該表示制御装置のユーザが操作する場所から離れて行われてもよい。即ち、保持手段の少なくとも一部は、遠隔地に置かれていてもよい。
 更に、表示制御装置の少なくとも一部は、表示手段とネットワークを介して接続されたサーバ内に配置されることも可能である。例えば、映像授業の動画コンテンツの配信者でも視聴者でもない者が、栞データを付加するのに特化した役割を持つものとして介在するような構成も本実施形態から排除されない。
 このような表示制御装置は、例えば、映像授業の提供者等の動画コンテンツの提供元における、表示手段に外付け又は内蔵されて動画コンテンツの提供者にとっての所謂GUIとして機能させることもできる。この場合、栞データは、教師、講師、他の視聴者等の判断に基づいて付加される。或いは、例えば、映像授業の生徒等の動画コンテンツの視聴者における、表示手段に外付け又は内蔵されて動画コンテンツの視聴者にとってのGUIとして機能させることもできる。この場合、栞データは、生徒、聴講者、視聴者等の判断で付加される。
 なお、動画コンテンツに重ねて表示される栞データにより示される栞は、例えば、紙媒体の本に挟まれる栞を模した図形でもよいし、付箋紙の如き図形でもよい。或いは、単純に四角形或いは多角形の輪郭マークでもよいし、丸い輪郭マークであってもよい。或いは網掛けや蛍光ペン、透明や半透明の表示を用いたマークであってもよく、画面上で当該栞を視認できる限りにおいて任意である。また、そのような栞データは、単に栞を示すだけでも基本的な機能を果たすが、後に詳述するように、栞データに、ウインドウ表示やプルダウンメニュー表示を行うためのボタンとしての機能を持たせることも可能である。
 以上詳細に説明した如く、比較的簡易或いは単純な方法で、比較的簡易或いは単純な装置構成を採用しつつ、動画コンテンツに対して所望の栞を付加することが可能となり、栞を利用しての様々な再生表示が可能となり、実用上大変便利となる。
<2>
 本実施形態に係る表示制御装置の一態様では、前記保持手段は、前記栞に係る検索用の一又は複数種類のインデックスデータを、前記栞データの一部として又は前記栞データに対応付けて保持する。
 この態様によれば、視聴者、提供者或いはユーザをして、栞データに係るインデックスデータ(例えば、試験によく出る旨を示すものとして規定されたインデックスデータ、間違えやすい箇所である旨を示すものとして規定されたインデックスデータ等々)を参照することで、極めて容易にして、栞データの検索を実施可能となる。例えば、予め試験によく出るものとして規定されたインデックスデータを利用すれば、受験生である視聴者は、他の部分を飛ばして、試験によく出る旨の栞が付された動画コンテンツ部分ばかりを再生することも可能となる。
<3>
 本実施形態に係る表示制御装置の他の態様では、前記動画コンテンツが静止画再生又は動画再生されている最中に、前記栞データを付加する旨の指示が入力されるのに応じて、前記栞データを指定若しくは生成可能な栞指定生成手段を更に備える。
 この態様によれば、例えば受験生である視聴者側でも講師等を含む提供者側でも、栞指定生成手段を用いて栞データを付加する旨の指示を入力することで、動画コンテンツに対し、その所望の期間(即ち、所望の再生時間)に栞を付加することが可能となる。
 本実施形態に係る「栞指定入力手段」の具体例としては、例えば、タッチパネル、マウス、キーボード等の、画面内でアイコン操作、描画操作、表示操作等を行うことが可能な、既存の各種操作装置を採用可能である。
<4>
 この栞指定生成手段を備える態様では、前記栞指定生成手段は、前記付加する旨の指示に加えて、前記栞に係るコメント、名称及び色のうち少なくとも一つを指定する旨の指示が入力されるのに応じて、前記少なくとも一つを伴う前記栞データを指定若しくは生成可能であり、前記第2制御手段は、前記栞データが伴う前記少なくとも一つに従って、前記栞データを表示してもよい。
 このように構成すれば、例えば、受験生である視聴者側が自らによる「解説文」、「関連事項」、「応用問題」などについてのコメントを栞に付加することができる。例えば、講師等を含む提供者側や受験生である視聴者側が「テストに絶対出る」、「テストに出やすい」、「ここは忘れやすい」、「ここは面白い」などの名称を栞に付加することができる。或いは、「大事」、「重要」、「要注意」などの名称を栞に付加することができる。更に、提供者側又は視聴者側における主観的判断に比べてより客観性を持つ、統計データに基づく客観的判断により、重要度に応じるものとして色分けされた赤色、青色、黄色などの色別の栞を付加することも可能となる。いずれの場合にも、栞の利用価値を向上させ得る。
<5>
 このように構成した場合更に、前記栞指定生成手段は、前記動画コンテンツ及び前記栞データの少なくとも一方に重ねて表示されるウインドウ画面内若しくはプルダウンメニュー上で、前記少なくとも一つを指定若しくは生成可能に構成されてもよい。
 このように構成すれば、栞を付加しようとする際に、該栞に係るコメント、名称或いは色などを、動画コンテンツや栞データ上に展開されるウインドウ画面若しくはプルダウンメニューを利用して簡単迅速に指定若しくは生成可能となる。
<6>
 前述の栞指定生成手段を備える態様では、前記画面は、タッチパネルの画面であり、前記栞指定生成手段は、前記タッチパネルへの操作者による接触を、前記栞データの生成開始のトリガーとし、前記接触の終了を、前記栞データの生成終了のトリガーとするように構成してもよい。
 このように構成すれば、動画コンテンツが表示されている画面を成すタッチパネルに対して、例えば視聴者側に居る受験生や提供者側に居る講師などの操作者が、指先やタッチペンによる接触を行い、時間をおいて或いは更に画面内で距離を隔ててその接触を止めるという簡単な操作によって、両トリガー間の期間に応じた所望の期間に、栞を付加することが可能になり、実践上大変便利である。
 栞として、予め設定された固定形状の他、接触の仕方に応じた可変形状を持つ栞が表示されるように、栞データを生成してもよい。更に、栞として、予め固定された画面内位置での表示の他、接触の仕方に応じて変化する画面内位置に栞が表示されるように、栞データを生成してもよい。
<7>
 或いは前述の栞指定生成手段を備える態様では、前記栞指定生成手段は、マウスへの操作者による第1の操作を前記栞データの生成開始のトリガーとし、第2の操作を前記栞データの生成終了のトリガーとするように構成してもよい。
 このように構成すれば、動画コンテンツに対して、例えば視聴者側に居る受験生や提供者側に居る講師などの操作者が、マウスの操作という簡単な操作によって、両トリガー間の期間に応じた所望の期間に、栞を付加することが可能になり、実践上大変便利である。
 この場合にも、栞として、予め設定された固定形状の他、第1の操作から第2の操作への変化の仕方に応じた可変形状を持つ栞が表示されるように、栞データを生成してもよい。更に、栞として、予め固定された画面内位置での表示の他、第1の操作から第2の操作への変化の仕方に応じて変化する画面内位置に栞が表示されるように、栞データを生成してもよい。
<8>
 これらの栞データの生成開始及び生成終了のトリガーに係る態様では、前記保持手段は、前記所定期間として(i)前記生成開始のトリガーよりも所定時間前から(ii)前記生成終了のトリガーから所定時間後まで、に相当する期間を示すタイムインデックスデータを、前記栞データの一部として又は前記栞データに対応付けて保持するように構成してもよい。
 このように構成すれば、動画コンテンツが再生されている中で、操作者による栞データを付加するための実際の操作開始(即ち、タッチパネルへの接触又はマウスの第1の操作)より以前に当たる動画コンテンツ部分から栞データが付加されるようにできるので、更に、操作者による栞データを付加するための実際の操作終了(即ち、タッチパネルへの接触解除又はマウスの第2の操作)より以降に当たる動画コンテンツ部分にまで栞データが付加されるようにできるので、栞データを付加する作業が簡単となる。言い換えれば、栞データが付加されている動画コンテンツ部分を栞データに基づいて再生すれば、肝心の頭出しの部分が再生されないで途中から再生開始されてしまう不都合や、肝心の最後の結論部分が再生されないで途切れてしまう不都合を、比較的簡単な方法及び装置構成によって、回避可能となる。例えば、栞データを付加するための実際の操作開始より2秒前或いは数秒前から栞データが付加され、栞データを付加するための実際の操作終了より2秒後或いは数秒後まで栞データが付加されるように構成すれば、実践上極めて便利となる。
 他方で、所定期間を、一瞬のみ即ち短い時間又は時刻とし、その短い時間又は時刻を含むシーン、チャプタ、トラック、一連の文章若しくは分などの動画コンテンツを構成する所定単位に対して栞データを付加するように構成することも可能である。
<9>
 或いは これらの栞データの生成開始及び生成終了のトリガーに係る態様では、前記第1制御手段は、前記接触又は前記マウスの操作が所定時間より短い時間のものである場合、前記動画コンテンツを動画再生から静止画再生に切り替えるように構成してもよい。
 このように構成すれば、タッチパネルへの接触時間の短さ又はマウスの操作時間の短さで動画コンテンツを静止画像に切り替えることができる。
<10>
 或いは これらの栞データの生成開始及び生成終了のトリガーに係る態様では、前記栞指定生成手段は、前記接触又は前記マウスの操作が所定時間より長い時間のものである場合に限定して、前記接触又は前記マウスの操作を前記トリガーとするように構成してもよい。
 このように構成すれば、短時間や瞬間的な誤接触やエラーでなく、ユーザの積極的意思が読み取れる程度の所定期間よりも長い時間に亘る接触や操作(典型的には、タッチパネルへの接触或いはマウス操作)が継続された場合に限定して、これらの接触や操作がトリガーとして認定される。他方で、このような接触や操作が所定時間よりも短い場合には、当該接触や操作は行われなかったもの扱いとなり、動画コンテンツの再生が継続される。よって、確実に或いは誤操作が無いように、栞データの指定や生成を実行可能となる。
<11>
 或いは これらの栞データの生成開始及び生成終了のトリガーに係る態様では、前記第2制御手段は、前記生成開始のトリガーから前記生成終了のトリガーまでの前記接触の軌跡又は前記マウスの操作の軌跡を、前記栞データとして、前記画面上における蛍光ペンの演出で表示するように構成してもよい。
 このように構成すれば、栞データを、操作者が操作した軌跡に応じた可変形状であって、しかも蛍光ペンにより極めて目立つものとして、動画コンテンツ上に表示可能となる。栞の形状についても、単純な直線状だけでなく、曲線状、くの字、星形、はてなマーク形状、エクスクラメーションマーク形状なども、手書きの要領で可能となり、更に簡単な文字や短い文章もこの要領で描ける。この結果、本来の単純な注意喚起機能以上の機能を持つ栞を実現可能となる。
 なお、画面内における固定位置に栞データが表示されていた方が、栞データの存否をユーザの視覚を通してより迅速に識別できるという観点からは、固定位置に栞データが表示される方が、更に固定位置に固定形状の栞データが表示される方が、有利であるとも言える。
<12>
 或いは前述の栞指定生成手段を備える態様では、前記第1制御手段は、前記栞指定生成手段により前記栞データが指定若しくは生成される際に、前記動画コンテンツを動画再生から静止画再生又はスロー再生に切り替えるように構成してもよい。
 このように構成すれば、一旦静止画再生或いはスロー再生に切り替えた上で、栞データを付加したい場面にある動画コンテンツに対し、時間的に余裕をもって、例えば栞に係るコメント等も含めて、栞データを指定或いは生成することが可能となる。即ち、栞データを指定入力する作業を実行し易いものにできる。より一般的には、コメントデータ等を伴う栞データを正確或いは確実に指定生成するという観点からは、動画コンテンツは、静止画再生若しくはストップモーション又はスロー再生されていることが、好ましい。
 更に、例えば、栞データを付加することが装置側で確認できたタイミングや、栞データの付加が終了したことが装置側で確認できたタイミングで、動画コンテンツを静止若しくはストップ又はスロー再生すれば便利であるが、どの動画コンテンツに対して当該栞データを付加しているかがユーザに分かる限りにおいて、このように静止等するタイミングは任意である。
 なお、動画再生される動画コンテンツの動きや特にその中におけるオブジェクトの動きが乏しい又は殆ど若しくは全く無い場合(例えば、ホワイトボードに書き終えられた文章や絵が動画コンテンツとして、動くことなく表示されている場合)、当該表示制御装置のユーザにおける操作技量が高く迅速に操作可能である場合などには、スロー再生、通常再生、ハイスピード再生などの動画再生中(即ち、栞データを付加すべき動画コンテンツの再生中)に、このような栞データの指定生成が行われてもよい。
<13>
 本実施形態に係る表示制御装置の他の態様では、前記保持手段は、前記栞データに対応すると共に所望のリンク先を識別するリンク先識別情報を、前記栞データの一部として又は前記栞データに対応付けて保持し、前記第2制御手段は、前記動画コンテンツが静止画再生又は動画再生されている最中に、前記リンク先識別情報により識別されるリンク先に係る画像データを、前記動画コンテンツに加えて又は代えて、前記栞データの一部として又は前記栞データに対応付けて表示可能である。
 この態様によれば、動画コンテンツが静止画再生又は動画再生されている最中に、付加されている栞データがある場合、その栞データに対応するリンク先に係る画像データが、例えば、操作ボタンとしての機能を有する栞データ又は別途表示される操作ボタンに対しタッチパネル、マウス等を用いての所定種類の操作が行われることで、表示される。
 このように栞データに、栞本来の注意喚起を促す機能のみならず、リンク先を呼び出す機能の一部を担わせることが可能となり、実践上極めて便利となる、
 ここで一般には、動画コンテンツ内の任意のオブジェクトに対してリンクを貼る場合、動画コンテンツの内容自体や動画コンテンツ内におけるオブジェクトの内容自体・位置自体に紐付けようとすると、画像解析や画像認識といった非常に高度なデータ処理が必要になってしまう。そのため必要なプログラムは、複雑高度化し、処理時間、処理量、データ量等は、顕著に増大してしまう。しかるに本実施形態によれば、当該表示制御装置のユーザが自らの目で動画コンテンツを見ながら、栞データに係る各種操作等を実行すればよく、それにより得られる栞データは動画コンテンツの再生時間軸に基づき紐付けられた形で、保持手段に保持される。従って、当該表示制御装置のユーザ側では、リンクを貼ることを簡単にして実践可能となる。
<14>
 本実施形態に係る表示制御装置の他の態様では、当該表示制御装置は、他の一又は複数の表示制御装置と共に一つのネットワークに収容されており、前記第2制御手段は、前記ネットワークを介して取得される(i)他の一の表示制御装置で生成された一の栞データ及び(ii)他の複数の表示制御装置で生成された複数の栞データに基づく統計処理結果を示す処理済栞データの少なくとも一方を、当該表示制御装置に係る前記栞データに加えて又は代えて表示する。
 この態様によれば、インターネット等のネットワークに当該表示制御装置と共に収容されている、他の一の表示制御装置で生成された一の栞データや、他の複数の表示制御装置で生成された複数の栞データに基づく統計処理結果を示す処理済データを、当該表示制御装置により表示される栞データに反映させることが可能となる。
 例えば、視聴者本人のみによる主観的な判断で「重要」、「試験に出る」、「間違えやすい」等ではなく、他の視聴者や、特に統計処理結果が示す複数或いは多数の視聴者による、より客観的な判断で「重要」、「試験に出る」等であるものに、その旨の名称や色或いはコメントを伴う栞データを付加することが可能となる。更に、処理済データを、ネットワークに収容された全表示制御装置に係る栞データに基づくものではなく、何らかの範疇に属する一部の視聴者のみに係る栞データ(例えば、特定大学を志望校とする視聴者のみに係る栞データや、偏差値が所定閾値を超える視聴者のみに係る栞データ)についての統計処理結果を示すデータに基づくものとすることも可能である。
<15>
 この態様では、前記第2制御手段は、同一動画コンテンツに係ると共に前記所定期間が少なくとも部分的に重なる又は同一である栞データの総数を前記処理済栞データに基づき所定形式で表現する栞マークとして、前記栞データを表示するように構成してもよい。
 このように構成すれば、栞データは、単に栞が付加されている事実を示すマークではなく、統計的に何人のユーザにより同様に栞が付加されているかが、例えばテキスト表示された数字そのものを持つ形式の栞マークとして、或いは総数に応じて変化するサイズを持つ形式の栞マークとして、或いは、総数に応じて変化する色を持つ形式の栞マークとして、表示される。よって、ユーザは、自分らの判断のみで付加された栞データのみならず、他のユーザの判断で付加された栞データを利用できるので、大変便利である。
<16>
 この態様では、前記第2制御手段は、同一動画コンテンツに係ると共に前記所定期間が少なくとも部分的に重なる又は同一である栞データの総数が所定閾値を超えた場合に、前記栞データに代わる前記処理済データとして若しくは前記処理済みデータに加えて、形状が該総数に応じて可変のアイコンを示す画像データを表示するように構成してもよい。
 このように構成すれば、統計的に見て大きな意義のある栞データが発生した場合には、例えば同一の動画コンテンツ部分に対して多数の栞データが付加されている旨を示す「熱狂アイコン」の如き、そのような意義がある旨を示すアイコンとして、形状が固定の又は該総数に応じて形状が可変のアイコンを表示することが可能となる。これにより、例えば、他の受験生である視聴者等が「重要である」、「試験に出る」、「間違えやすい」等として栞データを付加した動画コンテンツ個所について、そういう旨を示す栞データを自ら利用できる。例えば、受験であれば、受験生である視聴者間の相対的な点数争いに他ならないので、このような、例えば多数の受験生に支持された栞データを利用できることは、利用できる視聴者にとっては、相対的点数をアップさせる或いはダウンさせない目的からは、極めて有利となる。
<17>
 本実施形態に係る表示制御装置の他の態様では、前記動画コンテンツが静止画再生又は動画再生されている最中に、所望の文字または図柄を、入力可能な入力手段を更に備え、前記第2制御装手段は、前記栞データと共に若しくは前記栞データの少なくとも一部として、前記入力手段を介して入力された所望の文字または図柄を、前記動画コンテンツに重ねて表示可能であり、前記保持手段は、前記栞データに対応付けて前記文字または図柄を示す画像データを保持する。
 この態様によれば、動画コンテンツを再生中に、栞データを付加するのに相前後して又は同時並行的に、キーボード、タッチパネル、マウス等の入力手段を介して、動画コンテンツ上に、所望の文字または図柄を入力可能となる。例えば、所謂「落書き」が可能となる。よって、このように入力された文字または図柄と栞データとの両者の存在によって、提供者側或いは視聴者側では、動画コンテンツの所望の個所に対して、視覚的に、より情報量が多い或いはより自由度の高い表示を実現することも可能となる。このような文字や図柄は、保持手段に栞データに対応付けられる形で画像データとして保持されているので、後に、動画コンテンツが視聴される際に、栞データと共に表示可能となり、実用上大変便利となる。
<表示制御装置用のコンピュータプログラム>
<18>
 本実施形態のコンピュータプログラムは、 コンピュータを、上述の実施形態に係る表示制御装置(但し、その各種態様を含む)として機能させる。
 本実施形態のコンピュータプログラムによれば、当該コンピュータプログラムを格納するROM、CD-ROM、DVD-ROM、ハードディスク等の記録媒体或いはUSB(Universal Serial Bus)メモリ等コンピュータシステムに着脱可能な固体型記憶装置から、当該コンピュータプログラムをコンピュータシステムに読み込んで実行させれば、或いは、当該コンピュータプログラムを、例えば、通信手段等を介してコンピュータシステムにダウンロードさせた後に実行させれば、上述した本実施形態に係る表示制御装置(但し、その各種態様を含む)を比較的簡単に実現できる。
<記録媒体>
 本実施形態の記録媒体は、上述した本実施形態のコンピュータプログラムが記録される。
 本実施形態の記録媒体によれば、コンピュータシステムに装着又は接続することによって、或いはコンピュータシステムに備わる又は接続された然るべき読取装置に挿入することによって、記録している本実施形態のコンピュータプログラムを、コンピュータシステムに読み込ませて実行させることができ、上述した本実施形態の表示制御装置を比較的簡単に実現できる。
 本実施形態のこのような作用及び他の利得は、これ以降に説明する実施例により明らかにされる。
実施例に係る表示制御装置のブロック図である。 実施例に係る、ディスプレイに表示される画面の一例を示す図式的な平面図である。 実施例に係る、表示制御装置を含むクライアント装置及びサーバ装置などが、通信網に収容された様子を示す概念的なブロック図である。 実施例に係る、栞データの構造を示す概念図(その1)である。 実施例に係る、栞データの構造を示す概念図(その2)である。 実施例に係る、栞データの構造を示す概念図(その3)である。 実施例に係る、表示制御装置における栞データの作成から保存までの動作の一例の流れを示すフローチャートである。 実施例に係る、表示制御装置における栞データを検索する動作(即ち“栞へのジャンプ”)の一例の流れを示すフローチャートである。 実施例に係る、動画リストのデータ構成を示す概念図である。 実施例に係る、表示制御装置における他者が作成した栞データをダウンロードする動作の一例の流れを示すフローチャートである。 実施例に係る、栞データの指定・作成の動作の一例を示すタイムチャートである。 実施例に係る、栞データを付加する際の表示画面の一例を示す図式的概念図である。 実施例に係る、栞データを検索する際の表示画面の一例を示す図式的概念図である。 実施例に係る、複数のユーザにより作成される栞データの構造を示す概念図(その1)である。 実施例に係る、複数のユーザにより作成される栞データの構造を示す概念図(その2)である。 実施例に係る、アイコンの一例を示す平面図である。 実施例に係る、アイコンの他の例を示す平面図である。 実施例に係る、アイコンの他の例を示す平面図である。 実施例に係る、アイコンの他の例を示す平面図である。 実施例に係る、栞データが付加されている動画コンテンツ上に、落書きデータを書き込んで表示する場合における表示画面の変化の例を示す図式的概念図である。 実施例に係る、栞データが付加されている動画コンテンツ上に、リンク先から他のコンテンツを取得して表示する場合における表示画面の変化の例を示す図式的概念図である。
 先ず、図1のブロック図を参照して、実施例に係る表示制御装置の基本構成について説明する。本装置は、例えば、映像授業の視聴者等の当該表示制御装置のユーザにより、又は、映像授業の提供者或いは受験機関等の当該表示制御装置のユーザにより、使用される。
 図1において、表示制御装置10は、前述の実施形態に係る第1制御手段の一例を構成する動画表示制御部11と、前述の実施形態に係る第2制御手段の一例を構成する栞表示制御部12と、前述の実施形態に係る保持手段の一例を構成する栞データベース13と、入力部40と共に前述の実施形態に係る栞指定生成手段の一例を構成する栞指定生成部14とを備える。
 表示制御装置10は更に、入力部40を介してのユーザによる操作に応じて栞データベース13を検索可能な検索部15と、動画コンテンツデータベース20から提供される動画コンテンツを再生する再生部16と、動画表示制御部11からの動画コンテンツに栞表示制御部12からの栞データを所定フォーマットで重ねて、ディスプレイ30に表示させる出力部17とを備える。
 動画コンテンツデータベース20は、各種の動画コンテンツを保持しており、表示制御装置10(若しくは表示制御装置10を含むクライアント装置)に、有線又は無線で直接接続されていてよいし、インターネット等経由により有線又は無線で接続されていてもよい。他方、表示制御装置10のうち最小限の表示機能及び入力機能に係る、主にブラウザ部分のみが、表示制御装置10を部分的に含むクライアント装置側に備えられ、クラウド技術で、動画コンテンツを表示制御装置10に提供したり、動画コンテンツ及び栞データがディスプレイ30に表示出力されるように構成されてもよい。
 動画コンテンツデータベース20に保持される各種の動画コンテンツは、例えば、映像授業用或いは教育用の動画コンテンツ、映画、ドラマ、アニメ、ドキュメンタリ、バラエティ、テレビショッピング、スポーツ番組など任意である。
 ディスプレイ30は、パソコン、タッチパネル、モバイル、ケータイ端末装置、スマートフォン、ケータイ電話、高機能テレビなどに備えられるものである。ディスプレイ30には、動画コンテンツの音声データを音声出力する、不図示の音声出力部が内蔵又は外付けされている。
 入力部40は、タッチパネル、マウス、タブレット、ジョグダイヤル、トラックボール、キーボード等における入力部であり、画面内でアイコン操作、描画操作、表示操作等によって、栞データの指定及び生成が可能なように、栞指定生成部14と共に、前述の本実施形態に係る栞指定生成手段の一例を構成している。
 ディスプレイ30に動画コンテンツが静止画再生又は動画再生されている最中に、入力部40を介してユーザによって、栞を付加すべき旨の操作入力がされると、これを受けて、栞指定生成部14は、後に詳述する如き栞データ(図4及び図5等参照)を生成する。例えば、ユーザが、受験生である視聴者側でも講師等を含む提供者側でも、入力部40及び栞指定生成部14を用いて、動画コンテンツにおける所望の再生時刻若しくは時間帯に再生されている部分を、栞を付加すべき部分として指定することで、動画コンテンツに対し、その所望の期間(即ち、所定期間)に栞を付加することが可能となる。ここでの栞データが表示される位置若しくは範囲については、例えば、栞データの存在が簡単に分かるように、画面の右上隅或いは右下隅など、予め固定された位置若しくは範囲であってもよいし、ユーザが入力部40を介して、例えば動画コンテンツの表示の邪魔にならない位置若しくは範囲を指定するようにしてもよい。
 なお、ディスプレイ30と入力部40とは、別体として構成されてもよいし或いは、ディスプレイ30の画面上に、入力部40を構成するタッチパネルが重ねて配置されるなど、少なくとも部分的に一体的に構成されてもよい。
 栞データベース13には、後で詳述する如く、単に栞を表示するためのデータのみならず、栞に係るインデックス、名称、コメント等を表示するための各種データ、更に、栞データを介しての検索を可能ならしめる各種データを夫々伴う、複数の栞データが保持されている。栞データベース13は、例えば、メモリ、記憶装置、コントローラ等を備えてなる。これによる栞データの保持は、インターネット等の通信網を介して、表示制御装置10から離間して実行されてもよい。或いは、クラウド技術で、栞データを、主にブラウザ機能のみを有する表示制御装置10を部分的に含むクライアント装置側に提供するように構成されてもよい。
 次に本実施例における栞データを動画コンテンツに重ねて又は動画コンテンツに隣接させて表示させる構成をその動作と共に更に説明する。
図1において、ユーザにより入力部40等を介して指定された所望の動画コンテンツが再生部16から提供されると、動画表示制御部11は、この動画コンテンツに対応する画像信号、画像制御信号、タイミング信号、同期信号等の各種信号を、出力部17を介して、ディスプレイ30に提供する。これにより、ディスプレイ30に係る表示制御を行う。
これと相前後して或いは並行して、入力部40における栞を付加すべき旨の操作に応じて栞指定生成部14で生成された栞データが提供されると、又は、入力部40等を介して指定或いは検索された栞データが栞データベース13から提供されると、栞表示制御部12は、動画コンテンツに重ねて表示すべき栞データに対応する画像信号、画像制御信号、タイミング信号、同期信号等の各種信号を、出力部17を介して表示手段に提供する。これにより、ディスプレイ30に係る表示制御を行う。これらの表示制御の際に、出力部17は、動画コンテンツに栞データを重ねて出力する合成出力部として機能する。
ここに出力部17が「動画コンテンツに重ねて表示」するとは、単純に動画コンテンツの一部を隠す形で栞データを表示する場合の他、動画コンテンツの周縁部、上下左右、脇等に存在し得る、タスクバー、帯、額、枠、ウインドウ、サブの小画面等の一部として若しくはそのようなタスクバー等に重ねて(即ち、重なった部分だけ従前に見えていた部分を見えなくして)表示する意味も含む。更に「動画コンテンツに重ねて表示」するとは、重ねて表示される栞データが半透明表示、点滅表示等であるため、その下部に隠れた動画コンテンツ(或いはそのタスクバー等)が半透明等で透けて或いは部分的に見える場合も含む意味である。
加えて、栞データが表示される際に、動画コンテンツの表示サイズや表示形状に変化が加えられることで、栞データが画面内に表示されるエリアが確保されるように構成してもよい。更には、栞データが付加されている期間中には、予め規定された規則に従ってディスプレイ30における表示出力形態や音声出力形態が変化するように構成されてもよい。このように構成すると、紙からなる本に挟まれる栞のようにそれ自体がユーザに見える形式で表示されておらずとも、出力形式の変化が栞の存否を示すと知っているユーザにしてみれば、当該画面上に直接表示されない栞データであっても、これを広義の栞として機能させ得る。
例えば、図2に示すように、ディスプレイ30において、メイン画面201とは別に、メイン画面201の下辺に沿って延びるスクロールバー210を、メイン画面201に現在再生中のフレーム画像の位置及び栞の存在する位置を表示するサブ画面202として表示してもよい。具体的には、メイン画面201に現在表示中のフレーム画像の位置を動画全体の長さに相当するスクロールバー210上の横方向位置で示す(即ち動画再生に応じて矢印211aのように右側に逐次移動する)現在位置マーク211で示すように、且つ、スクロールバー210上に各栞の位置を栞マーク213で示すように、当該サブ画面202を構成してもよい。
再び図1において、検索部15は、入力部40を介してのユーザによる操作に応じて、後に詳述する如き栞データが有するインデックスデータ、名称等を頼りに、栞データベース13を検索可能に構成されている。ここで検索された栞データは、栞表示制御部12に提供されると、栞指定生成部14でリアルタイム的に指定生成された栞データの表示の場合と同様に、動画コンテンツに重ねて表示されることになる。
 本実施例では特に、出力部17で合成される動画コンテンツは、一のレイヤーデータとして構築されている。これに対し、出力部17で合成される栞データは他のレイヤーデータ(例えば、単純に栞の存在を示すだけの栞データから構成されるレイヤーデータのみならず、コメントデータ等を伴う栞データから構成されるレイヤーデータ、更に、栞データにリンクされたリンク先を示すデータ等までも伴う栞データから構成されるリンクレイヤーデータ)として構築されている。
 他方で、栞指定生成部14に対しては、再生部16から動画コンテンツの再生位置(即ち再生時間或いは再生時刻)を示す情報が提供される。この情報に基づいて、動画コンテンツの時間軸に対応付けがなされるように栞データは、生成される。
 この際、栞データを構成するレイヤーデータは、動画コンテンツを構成するレイヤーデータの全時間帯に対して途切れなく或いは連続的に存在している必要はなく、栞を表示する期間に対してのみ存在していれば足りる。即ち、栞データを構成するレイヤーデータは、動画コンテンツの再生時間軸上で、栞の存在する期間にのみ途切れ途切れの時間帯に或いは断続的に存在するデータとして構築されれば足りる。これにより、栞データのデータ量が無暗に増大しないで済む。
 このように動画コンテンツの時間軸上の再生位置を示す情報に基づくことで、動画コンテンツにおける栞データを付加したい所望の期間(言い換えれば、所望の再生時間帯)に、栞データを付加することを、即ち、結果的に表示上或いは外観上は動画コンテンツに対する適所に栞データが付加されている表示状態を、ディスプレイ30の画面上で、極めて容易に実現できる。
 よって、動画コンテンツは、栞データが存在しない従前の動画コンテンツのままで済む。他方で、栞データについては、例えば従前の動画コンテンツに埋め込まれる形式のデータとして構築される必要性は無く、総じて簡易或いは単純なデータ構造(即ち、他のレイヤーデータとして動画コンテンツから独立した単純なデータ構造)を採用することで十分構築可能となる。
 従って、例えば、動画コンテンツのうち、ディスプレイ30を視聴するユーザが重要である或いは難しいと感じた所望の部分に対し、ユーザは、入力部40及び栞指定生成部14を介しての操作によって、リアルタイム的に(即ち、動画コンテンツを視聴しながら)栞データを付加することが可能となる。更に、事後的に、栞データを頼りに、それが付加された動画コンテンツ部分のみを、ユーザは、入力部40及び検索部15を介しての操作によって、今一度或いは複数度、見直すことが可能となる。
 次に、図3のブロック図を参照して、図1に例示した表示制御装置を夫々含むサーバ装置及びクライアント装置等を含むシステムの全体構成について、説明する。
 図3において、インターネット1000には、表示制御装置10aを含んでなるサーバ装置500と、表示制御装置10bを夫々含んでなる複数のクライアント装置1200とが収容されており、更に、サーバ装置500或いはクライアント装置1200へリンク先のコンテンツを提供するリンク先コンテンツサーバ装置600と、サーバ装置500或いはクライアント装置1200へ動画コンテンツを提供する動画コンテンツサーバ装置700と、栞データベース13Rを有しサーバ装置500或いはクライアント装置1200へ栞データを提供する栞データサーバ装置1300とが収容されている。
 複数のクライアント装置1200は、例えば、映像授業を受ける複数の受験生の手元に夫々配置される。複数のクライアント装置1200が備える表示制御装置10bは夫々、図1に示した表示制御装置10と同様に構成されている。クライアント装置1200は、例えば、パソコン、高機能テレビ、モバイル、スマートフォン等から構成されており、光ディスク200dが装着可能である。光ディスク200dに格納されており、後に詳述する栞データに係る各種処理をコンピュータに実行させるためのコンピュータプログラムを読み込んで実行させれば、クライアント装置1200内に、表示制御装置10(図1参照)を比較的容易に実現できる。或いは、このようなコンピュータプログラムは、インターネット1000を介してクライアント装置1200にダウンロードされてもよい。
 サーバ装置500は、例えば、映像授業を配信する受験機関等の元に配置される。サーバ装置500と動画コンテンツサーバ装置700とは、共通のサーバであってもよいし、両方共に同一の受験機関等の元に配置されてもよいし、両者は全く離れたところに配置されてもよい。サーバ装置500が備える表示制御装置10aは、図1に示した表示制御装置10と同様に構成されている。サーバ装置500は、例えば、パソコン、ワークステーション、モバイル等から構成されており、光ディスク100dが装着可能である。光ディスク100dに格納されており、後に詳述する如き栞データに係る各種処理をコンピュータに実行させるためのコンピュータプログラムを読み込んで実行させれば、サーバ装置500内に、表示制御装置10(図1参照)を比較的容易に実現できる。或いは、このようなコンピュータプログラムは、インターネット1000を介してサーバ装置500にダウンロードされてもよい。
 リンク先コンテンツサーバ装置600は、サーバ装置500と共通のサーバであってもよいし、両方共に同一の受験機関等の元に配置されてもよいし、両者は全く離れたところに配置されてもよい。リンク先コンテンツサーバ装置600に保持されるコンテンツを利用することで、栞データが付された動画コンテンツに対応付けられるリンク先に存在する、他のコンテンツ等のデータを動画コンテンツ及び栞データに加えて又は代えて表示する処理が実行可能となる。即ち、動画コンテンツが静止画再生又は動画再生されている最中に、付加されている栞データがある場合、その栞データに対応するリンク先に係る画像データが、例えば、操作ボタンとしての機能を有する栞データに対し、入力部40(図1参照)を構成するタッチパネル、マウス等を用いての所定種類の操作が行われることで、表示される(後述の図21参照)。
 動画コンテンツサーバ装置700は、図1に示した動画コンテンツデータベース20を有して構成されてもよいし、更にその源になる膨大な量の動画コンテンツデータを有していてもよい。或いは、図1に示した動画コンテンツサーバ20が、サーバ装置500又はクライアント装置1200の元に配置されていれば、そのような動画コンテンツサーバ装置700は、省略可能となる。
 栞データサーバ装置1300は、サーバ装置500と共通のサーバであってもよいし、両方共に同一の受験機関のところに配置されてもよいし、両者は全く離れたところに配置されてもよい。或いは、図1に示した如き表示制御装置10に備えられる栞データベース13が全ての栞データを管理保持するようにシステムを構築すれば、独立した栞データサーバ1300は、省略可能となる。逆に、例えば、映像授業の動画コンテンツの配信者でも視聴者でもない者(例えば、受験情報に詳しい或いは栞を付ける技能に長けたプロフェッショナル)が、栞データを付加するのに特化した役割を持つ者として介在して、サーバ装置500から独立に、栞データサーバ装置1300を操作するような構成も可能である。
 次に、図4及び図5を参照して、栞データのデータ構成について具体例を挙げて説明を加える。図4及び図5は、一人のユーザが一つの動画コンテンツに対して付加することで生成される複数の栞データにおけるデータ構造を示す一枚の図面を便宜上、左右二つに分割して示している。図4が分割された左部分に対応し、図5が分割された右部分に対応している(即ち、図中「…」の箇所で、図4のデータ構造と図5のデータ構造とは連続している)。
 図4及び図5において先ず、図4の左から右に向かって、栞データは、ユーザID(UID)、動画ID(Movie ID)、栞ID(Siori ID)、開始時刻データ(Start Time(ST))及び終了時刻データ(End Time(ET))を有する。続いて、図5の左から右に向かって、栞データは、色指定データ(Color)、名称データ(Name)及びコメントデータ(Comments)を有する。図中、左右に延びる一行が、一つの栞データを示している。即ち、本例は、一つの動画コンテンツに対し6つの栞を付加した場合に構築される栞データを6行のデータとして示している。
 図4において、ユーザID(UID)は、各表示制御装置10のユーザ(例えば映像授業の提供者或いは多数の視聴者の夫々)に対して、固有のIDが割り当てられてなる(図中、“GK0023645789”なる単一のIDが例示されており、同一ユーザにより付加された栞データであることが分かる)。動画ID(Movie ID)は、動画コンテンツ毎のIDであり、例えば映像授業で配信される複数の動画コンテンツに夫々、固有のIDが割り当てられてなる(図中、 “Movie001A”なる単一のIDが例示されており、同一動画コンテンツに対して付加された栞データであることが分かる)。
 栞ID(Siori ID)は、ユーザID(UID)と動画ID(Movie ID)との組み合わせに対して付加された栞データの夫々に、固有に割り当てられてなる(図中、ユーザIDに係る“45789”と動画IDに係る“001A”とが組み合わされ、これに更に、連続番号が組み合わされてなるIDが例示されている)。
 開始時刻データ(Start Time(ST))は、栞データの表示を開始すべき動画コンテンツの再生時間軸におけるタイムコード(図中では、時間、分、秒等の単位で示される具体的な時刻(再生時間))を示している。終了時刻データ(End Time(ET))は、栞データの表示を終了すべき動画コンテンツの再生時間軸におけるタイムコードを示している。
 図5において、色指定データ(Color)は、予め設定されたルールの下若しくはユーザの好みにより、例えば栞データを指定・生成するユーザ等に認定された重要度の度合いに応じて、表示される栞データの色を規定しており、栞を付加した動画コンテンツ箇所が、最も重要である旨を色で示す赤(Red)、(重要であるか否かに拘わらず又な重要でないにしても)面白いものである旨を色で示す青(Blue)、又は重要である旨を色で示す黄色(Yellow)を、栞データ別に示している。
 名称データ(Name)は、予め設定されたカテゴリーを示す “重要!!”、“面白い”、“テストに出る”などの名称をテキストデータとして、栞データを指定・生成するユーザ等による判断で、栞データ別に付与されるものである。複数の栞データに対して、同一の名称が付けられることは許されており、検索用のインデックスデータとして使うことができる。即ち、例えば“テストに出る”という名称データ(Name)が付与された栞データが付加された個所ばかりを視聴すれば、文字通り「テストに出る」と、受験生自ら若しくは他の受験生又は講師が判断した箇所ばかりを視聴することも可能となる。
 コメントデータ(Comments)は、栞データを指定・生成するユーザ等が自由且つ任意に作成したコメントをテキストデータとして書き込んだものを、栞データ別に示している。或いは、典型的な複数種類のコメントの中から自由且つ任意に選択されたものを、栞データ別に示している。これにより、栞データが付加された背景状況、理由などを、テキスト形式で端的に或いは詳細に書くことが出来る。コメントデータを検索のキーワードとして用いることも可能である。即ち、このように作成されたコメントデータを、事後的に、見る或いは参照することも可能とされる。また、コメントデータについては、作成しなくても栞データとしては、完成しており、一旦完成させた栞データに対して、事後的にコメントデータを付加、修正、削除等することも可能である。
 図4及び図5で例示した栞データは、名称、コメント等まで含んでおり、便利であるが、栞データは、栞が付されていることが視聴者に伝わる限りにおいて、その基本的機能を有していれば成立する。例えば、図5に示した部分が無く、図4に示した部分からだけでも、栞データは成立する。栞データを付加する手間を減らす観点から言えば、栞データは、そのようにシンプルで最小限の基本的機能を有するものであってよい。
 ここで図6に示すように、栞データは、上述の如き栞データ(図4及び図5参照)に加えて又はその一部に代えて、ユーザIDの示すユーザ(即ち受験生)に係る、在籍地、第1志望校、第2志望校及び偏差値を含んで構成されてもよい。或いは、図6に示した如き在籍地等を含むデータが、栞データ(図4及び図5参照)に対して、紐付けれる形で記録保持されてもよい。
 次に、図1から図6と共に、図7から図10のフローチャート等を参照して、表示制御装置100の各種動作を、その詳細な構成と共に説明する。ここに、図7は、表示制御装置100により栞データを生成し保存する際の一連の動作を示す。図8は、表示制御装置100により栞データの付加された動画コンテンツ部分を検索する、言い換えれば「栞の付加された個所へジャンプ」する際の一連の動作を示す。図9は、動画コンテンツの内容別に栞の有無等を示す動画リストのデータ構成を示す概念図である。図10は、表示制御装置100により、他のユーザの栞データをダウンロードする際の一連の動作を示す。
 図7において、先ず、動画表示制御部11(図1参照)等により、例えば映像授業等の動画コンテンツが動画再生される(ステップS11)。その最中に、ディスプレイ30の画面上において入力部40で、例えばタッチパネル操作やマウス操作としてクリックされたか否かが、栞指定生成部14(図1参照)等により判定され続ける(ステップS12:No)。
 ここで、クリックされたと判定されると(ステップS12:Yes)、更に1秒以上押されたか否か、即ち、入力部40におけるクリック操作で1秒以上のユーザによる意識的な押圧或いは接触動作が行われたか否かが栞指定生成部14等により判定される(ステップS13)。
 ここで1秒以上押されていないと判定されると(ステップS13:No)、画面表示はポーズとなり、通常の動画処理へと移行される。
 他方、1秒以上押されたと判定されると(ステップS13:Yes)、ユーザから栞を付加すべき旨の積極的な指示を受けたものと、栞指定生成部14等において認識される(ステップS14)。即ち本実施例では、このような1秒以上のクリック操作が行われた場合には、予め設定されたユーザの知るところのルールの下、動画コンテンツの当該クリック操作が実行された場所或いは箇所(言い換えれば、再生時刻)で、ユーザが栞データを付加したい旨の操作入力がされたものと、栞指定生成部14等で認定される。
 例えば、映像授業中に、ユーザが試験に出る箇所或いは重要な個所、理解できないのでもう一度見直したい箇所などに対して、このような栞を付加する旨のユーザ操作が行われる。
 更に、指が離れたか否か、即ち、タッチパネル操作やマウス操作が行われる入力部40におけるクリックに係る指の操作で1秒以上続けられているものが解除されたか否かが、栞指定生成部14等により判定される(ステップS15)。この判定は、指が離れたと判定されるまで続けられる(ステップS15:No)。この際、ステップS12でクリックされてから、ステップS15で指が離されるまでの時間(より具体的には、動画コンテンツの再生時間時刻上における時刻又はステップS12のクリック以降の経過時間)が、栞指定生成部14等で計測される。
 ここで指が離れたと判定されると(ステップS15:Yes)、栞を付加する作業は終了したとものと、栞指定生成部14等により判定される(ステップS16)。即ち本実施例では、このような1秒以上のクリック操作が行われた後にクリックが解除された場合には、予め設定されたユーザの知るところのルールの下、動画コンテンツの当該クリックの解除が実行された場所或いは箇所(言い換えれば、再生時刻)で、ユーザが栞データの付加を止めたい、或いは栞付加はそこまでで十分である旨の積極的な操作入力がされたものと、栞指定生成部14等で認定される。
 そしてステップS16では、それまでのクリックに係る計測結果に基づいて、終了時刻データET(図5参照)は、現在時刻(より具体的にはタイムコード或いはタイムスタンプが示す現在時刻)から、マージンとなる例えば2秒を加えた(+2秒した)ものとして、栞指定生成部14等により生成される(ステップS16)。なお、このマージンの値は、ユーザが所望の値に設定できる。
 なお、開始時刻データST(図5参照)については、ステップS12でクリックが開始された時刻(より具体的には、クリックが開始された時点でタイムコード或いはタイムスタンプが示す時刻)から、マージンとなる例えば2秒を引いた(-2秒した)ものとして、ステップS16における終了時刻データETの生成に相前後して或いは同時に(例えば、ステップS13でYesとされた際に、ステップS14で栞として認定された際に、或いはステップS16の際に)、栞指定生成部14等により生成される。なお、このマージンの値は、ユーザが所望の値に設定できる。
 これらにより、図4に示した如き、開始時刻データST及び終了時刻データET、即ち栞データの基本的な部分が生成される。
 続いて、以上のステップで生成された栞データを保存すべきか又はキャンセルすべきかの確認が、ディスプレイ30及び入力部40を介して、栞指定生成部14等により実行される(ステップS17)。ここで、キャンセルの場合(ステップS17:キャンセル)、メニュー画面の消去が行われて画面表示はポーズとなり、通常の動画処理へと移行される。例えば、ユーザが栞データの生成作業中に、栞を付加する程のことはないと考え直した場合などが、ここでのキャンセルの場合に当たる。
 他方、保存の場合(ステップS17:保存)、ディスプレイ30には、所定フォーマットのメニュー画面が、ポップアップで表示され(例えば、後で詳述する図13参照)、当該栞データに係る色の指定や変更、名称やコメントを構成するテキストの指定や入力が入力部40等を介して実行される(ステップS18)。これらの指定或いは入力については、よく用いられるものをデフォールトバリューとして、それに対する変更や修正で済ませると便利である。これらにより、図5に示した如き、色指定データ(Color)、名称データ(Name)及びコメントデータ(Comments)、即ち栞データの応用的な部分が生成される。
 続いて、ユーザID及び動画IDに連携した栞ID(図4参照)が付加され、栞データベース13(図1参照)に、栞IDが割り当てられた正式な栞データ(図4及び図5参照)として保存される(ステップS19)。即ち、栞データを構成するレイヤーデータとして、或いは栞データの階層上は、画面内の所定位置(例えば、画面内の右上)に、開始時刻STから終了時刻ETまで、栞が表示される内容の、栞データが生成される。動画コンテンツ自体に対しては、栞が付されるか否かによる変化修正等は全く行われない。
 ステップS19における保存が実行または完了されると、メニュー画面の消去が行われ、メニュー画面が表示される前のポーズ状態等に戻り(ステップS20)、栞データの指定、生成から保存に係る一連の処理が終了する。
 図8において、先ず、図9に例示する如きユーザIDに関連付けられた動画のリストが表示される。このリストには、動画の概要(例えば「物理1日目」、「物理2日目」、「英語1日目」などの内容サマリー(“Contents”)、及び「田中」、「鈴木」などの講師名等)と併せて、視聴済であるか否か、及び栞の有無等が表示される。ユーザにより、例えば映像授業のうちの“物理授業 第16日目”の映像などの動画コンテンツが参照される。具体的には、選択されると、初めての視聴である又は栞が無い場合には、受験生等のユーザによる動画コンテンツの指定操作に応じて、動画表示制御部11(図1参照)等により、当該動画コンテンツが動画再生され、該ユーザによって参照される。より具体的には、例えば栞がある場合には、位置表示画面となり、冒頭からの再生か又は栞の位置からの再生かを選択できる。ここで、栞の位置からの再生であれば、ユーザは当該栞をタッチすれば、そこから再生される。特に重要な栞が付加された部分は、サムネイルとして表示してもよい(ステップS21)。動画コンテンツの再生の最中に、当該動画コンテンツに係る栞ID、或いは、当該動画コンテンツのID及びユーザ自らのIDに基づいて、当該再生中の動画に付加された栞データを参照したい旨の指示が、入力部40等を介してユーザにより入力されるか否かが判定される(ステップS22)。この判定は、動画が参照されている間、定期的に或いは不定期的に繰り返し実行される(ステップS22:No)。なお、当該再生中の動画コンテンツに対して栞データが存在している再生時間帯であっても、状況に応じて選択的に、栞データがない場合と同様に動画コンテンツを視聴し続けることも可能である。
 栞データが参照されるための操作入力が入力部40等を介してユーザにより行われたものと判定されると(ステップS22:Yes)、栞データのリストが所定フォーマットで動画コンテンツに重ねて又は隣接して、表示される(ステップS23)。なお、ここでのリストの表示は、画面内で動画コンテンツの邪魔にならない位置或いは範囲に常時表示されていてもよいし、或いは、ユーザにより栞リストを表示すべき旨の操作入力があった場合に、動画コンテンツの邪魔にならない位置或いは範囲に適宜表示されていてもよいし、動画コンテンツを見るのに邪魔になる程度の位置或いは範囲で適宜表示されるのでもよい。
 続いて、入力部40等を介してユーザによりリスト選択が実行されると、即ち一又は多数の栞データを含むリストの中から一つの栞データが選択されると、該選択された栞データに係る栞ID、開始時刻ST等が参照される(ステップS24)。これらは、各栞データに含まれている(図4参照)。
 続いて、対応画面の開始時刻STへ画面を移動する。具体的には、再生時間軸上における再生箇所が、開始時刻STに一致する時刻へと移動され、そこにおける当該動画コンテンツの再生が開始される(ステップS25)。このような再生は、動画コンテンツが一旦ポーズ(POSE)とされ、即ち静止画再生或いは動画がストップ状態とされた後に、所定種類の再生開始を指示する旨の操作入力に応じて行われてもよいし、リスト選択後に、それ以上の操作入力を要することなく即座に又はポーズ期間を経て動画再生が開始されてもよい。
 続いて、例えばディスプレイ30の画面の右上に、指定された栞マークを表示する処理が栞表示制御部12(図1参照)等により実行される(ステップS26)。
 続いて、栞マークが表示されたままで動画表示制御部11等により通常動画処理が行われる。これらにより、栞マークが付された動画コンテンツ部分が再生され、その右上に栞マークが表示された再生画面となる(ステップS27)。なお、これらの栞マークの表示(ステップS26)と動画コンテンツの表示(ステップS27)とは同時に行われてもよいし、後者が前者より若干だけ先行して開始されるのでも構わない。
 その後、再生時間軸上における再生箇所が、終了時刻ETに一致するまで動画コンテンツの通常再生が進められると、栞データに従って、栞マークの表示が栞表示制御部12等により消去される(ステップS28)。動画コンテンツの動画再生については、そのまま(即ち栞マークの表示が消えるだけで)続けられる。以上により、栞データを用いての参照動作、言い換えれば、栞が付加された箇所へのジャンプ操作に係る一連の処理が終了する。
 図10において、本実施例では、他人の栞データのダウンロードを実施することができ、そのために、本実施例は、動画毎に栞データが栞データベース13(図1参照)上で、別途検索可能に構成されている。更に、各種条件に応じて、栞データの抽出が可能となるように(例えば、個人IDのデータ中の志望校をピックアップし志望校Aとされている個人IDが付された栞データ、偏差値の高い者をピックアップしその者らの個人IDが付されている栞データなどが、抽出可能なように)構成されている。更に、動画ID毎に栞データが、栞データベース13に別途保持されるように構成されている。
 この状況で先ず、対象となる動画コンテンツの選択が、一のユーザにより行われる(ステップS31)。例えば、多数ある映像授業に対応するものとして、ディスプレイ30に表示された講義リストの中から、対象となる講義が、入力部40を介してのユーザ操作等によって選択される。
 続いて、選択された動画コンテンツについての、ダウンロード(DL)可能な栞データがあるか否かの判定処理が実行される(ステップS32)。この判定の結果、栞データがない場合には(ステップS33:No)、ダウンロードは実行不能であるので、当該ダウンロードに係る処理は終了する。
 他方、栞データがある場合(ステップS33:Yes)、栞データを所有する各個人のうち所定条件を満たす者のみが自ら指定生成した若しくは所有している栞データが夫々抽出されてなる一又は複数の栞セットのリストの表示が行われる。例えば、志望校Aとされている個人IDが付された栞データのみが抽出されてなる栞セットや、志望校Bとされている個人IDが付された栞データのみが抽出されてなる栞セットなどが、ディスプレイ30の表示画面上に所定フォーマットでリストアップされる(ステップS34)。
 続いて、対象となる栞セットの選択が、当該ユーザにより行われる(ステップS35)。例えば、自らの志望校が志望校Bである場合、ライバルの動向を調べる観点等から、ディスプレイ30に表示された栞セットの中から、志望校Bとされている個人IDが付された栞データのみからなる栞セットが、入力部40を介してのユーザ操作等によって選択される。
 続いて、この選択で間違いはないかの(即ちOKであるかの)確認が、入力部40を介して行われる(ステップS36)。ここで、栞セットの選択がOKでなければ(ステップS36:No)、当該ダウンロードに係る処理は終了する。
 他方、栞セットの選択がOKであれば(ステップS36:Yes)、自分の栞データにダウンロードした栞データが上書きされる(ステップS37)。具体的には、当該ユーザの栞データベース13上で、ダウンロードした栞データに係る動画IDについて、従前の栞データに、ダウンロードした栞データを加える処理が実行される。或いは、従前の栞データを、ダウンロードした栞データで部分的に又は完全に置き換える処理が実行されてもよい。以上により、一連のダウンロード処理が終了する。
 次に、図1等と共に図11を参照して、動画コンテンツの再生時間軸上で、栞データの指定生成のためのユーザ操作が行われる時刻と、それにより生成される栞データにおける開始時刻ST及び終了時刻ETの時刻(即ち再生時間軸上での位置)の定まり方とについて説明を加える。
 図11に示す一具体例では、動画コンテンツの再生時間軸上における時刻T1では未だ、栞データを指定生成するためのユーザによる操作は何ら行われておらず、時刻T2でユーザによる操作として、栞データを付加する旨のタッチ操作が行われる。すると、時刻T3で即ち時刻T2から1秒経過後に、表示制御装置10(図1参照)で、ユーザが栞データを付加しようとしているものと認識される。
 その後、ユーザが、例えば「この部分は重要である」などの理由から栞データの付加を継続したい期間にタッチ操作が継続された後、時刻T4で栞データの付加を止める旨のタッチ終了(即ちタッチ或いはタッチ操作の解除)がユーザにより入力部40を介して実行される。本例では、時刻T4は、時刻T3の3秒後とされており、即ち、入力部40(図1参照)に対するタッチ操作は、3秒間だけ行われたことになる。この栞データが付加されている最中には、画面内に表示されるポップアップメニュー等を介して、前述の如き色データ、名称データ及びコメントデータ(図5参照)の入力が可能とされる。
 すると、表示制御装置10(図1参照)で、ユーザが一つの栞データを付加しようとする操作が完了したものと認識され、栞データに係る開始時刻ST(図4参照)は、実際にタッチされた時刻T2よりも2秒以前である(言い換えれば、認識された時刻T3から3秒間遡った位置となる)“栞配置スタート位置”と見做される時刻T1に設定される。これと相前後して又は同時に、栞データに係る終了時刻ET(図4参照)は、実際にタッチが終了された時刻T4よりも2秒以後である“栞終了位置”と見做される時刻T5に設定される。即ち、実際に実行されたタッチ操作は、4秒間だけ(即ち時刻T2から時刻T4までの期間)であるのに対して、栞データが付加される期間(言い換えれば、動画コンテンツに重ねて栞データ或いは栞マークが表示される期間)は、8秒間(即ち、時刻T1から時刻T5までの期間)となる
 次に図12を参照して、栞データを付加する際における具体的な表示画面について更に説明を加える。先ず図12の左側は、動画表示されている動画コンテンツに対して、栞データを付加する際のディスプレイ30の表示画面の一例を示している。図12の右側は、図中左側の表示画面で保存OKとされた後における、動画コンテンツ上に栞データが栞マークとして表示されている際のディスプレイ30の表示画面の一例を示している。
 図12の左側に示されているように、表示画面30-1では、右上部に(例えば、前述した図7のステップS18の処理を行うための)「シオリ名変更」、「色指定」、「コメント」、「削除」等の操作ボタンを含むメニュー画面30aが表示されている。これらは、入力部40(図1参照)を介して夫々指定或いは選択可能である。
 「シオリ名変更」が指定或いは選択された場合には、栞の名称をそのデフォルト値からテキスト入力等により変更するための入力画面(例えば、ユーザをして当該栞の分かり易い名前を選択若しくは指定する画面又はテキスト入力する画面)がウインドウ表示或いはポップアップ表示として展開される(図7のステップS18参照)。
 「色指定」が指定或いは選択された場合には、栞の色をそのデフォルト値から変更するための入力画面(例えばしおりの色を、赤、黄色、緑、青、白のうちから選択する画面)がウインドウ表示或いはポップアップ表示として展開される(図7のステップS18参照)。
 「コメント」が指定或いは選択された場合には、コメントをテキスト入力するための入力画面(例えば、50文字が入力可能な画面)がウインドウ表示或いはポップアップ表示として展開される(図7のステップS18参照)。
 「削除」が指定或いは選択されると、当該栞データが削除される。
 表示画面30-1内には更に、当該栞の識別番号(本例では“シオリNo.0012”)である旨のウインドウ画面30bに含まれる「キャンセル」(即ち、保存キャンセル)又は「OK」(即ち、保存OK)の確認用画面30cが表示され、これらに対してもタッチ或いはクリック操作が可能とされている(図7のステップS17参照)。
 なお、図12の左側では説明の便宜上、メニュー画面30a及びウインドウ画面30bが動画コンテンツの画面から食み出すまでに大きく図示されているが、実際にはこれらの画面は動画コンテンツ又はディスプレイ30(図1参照)の表示画面30-1内に収まる位置に表示されるものである。
 ウインドウ画面30b内で「OK」(即ち保存OK)がクリック或いはタッチ操作されると、図12の右側に示されているように、栞データが存在している旨を示す栞マーク30dが、動画コンテンツが再生されている表示画面30-2の右上に表示される。このような栞マーク30dは、その後、その表示中には、操作入力用ボタンとしてユーザによりクリック或いはタッチ操作されると、当該栞マークによりその存在が示されている栞データの内容(図4及び図5参照)が適宜、所定フォーマットで表示される。
 本実施例では特に、栞マーク30dは矩形であり、その内部に、当該ユーザと同様に当該再生中の動画コンテンツ(例えば、当該栞データが付加された動画コンテンツの前後5秒間以内の動画コンテンツの少なくとも一部)に対して、栞データを付加したユーザの総人数(本例では“244”名)がテキストとして表示されている。このような総人数に係るデータは、例えば、多数のクライアント装置1200から栞データを吸い上げて統計処理を行う栞データサーバ装置1300からインターネット1000を介して取得される(図3参照)。
 なお、図12の左側の表示画面30-1が表示されている最中には、動画コンテンツは動画表示されているままでもよいが、一時的に静止画表示に切り替えられていてもよい。静止画表示とされれば、時間的な余裕をもって、メニュー画面30aを利用しての入力操作を行うことができ、便利である。
 図12に示したように本実施例によれば、栞データの付加作業は動画コンテンツの再生画面上で行うことができ、付加が完了すると、当該ユーザは、自分と同様に栞データを付加した他のユーザの総人数(言い換えれば、ライバルの動向)を、簡単かつ迅速に知ることが可能となる。
 次に図13を参照して、栞データを検索する際における具体的な表示画面について更に説明を加える。先ず図13の左側は、動画表示されている動画コンテンツに対して、栞データを検索する際のディスプレイ30の表示画面の一例を示している。図13の右側は、図中左側の表示画面で検索(具体的には、リストにおける名称の選択操作)がされた後における、動画コンテンツ上に栞データが栞マークとして表示されている際のディスプレイ30の表示画面の一例を示している。
 図13の左側に示されているように、表示画面30-3では、ポップアップ表示、プルダウンメニュー表示、ウインドウ表示等により、どの名称を付加された栞データ(図5等参照)の検索が要求されるかのリスト画面30eが表示されている。 なお、図13の左側では説明の便宜上、リスト画面30aは、動画コンテンツの画面の外に大きく外れて図示されているが、実際にはリスト画面30aは動画コンテンツ又はディスプレイ30(図1参照)の表示画面30-3内に収まる位置に表示されるものである。
 このように表示されたリスト画面30a上で「シオリリスト」にリストアップされた複数の名称のうち、ユーザにより一の名称(例えば「ここは面白い!」なる名称)が、選択されると、図13の右側に示されているように、ここで選択された名称が付けられている栞マーク30fが付加されている動画コンテンツの静止画再生若しくは動画再生が行われ、その動画コンテンツ上に栞マーク30fが重ねられた表示画面30-4が表示される。
 更に、当該再生中の動画コンテンツ(例えば、当該栞データが付加された動画コンテンツの前後5秒間以内の動画コンテンツの少なくとも一部)に対して、栞データを付加したユーザの総人数(本例では“687”名)がテキストとして表示されている。このような総人数に係るデータは、例えば、多数のクライアント装置1200から栞データを吸い上げて統計処理を行う栞データサーバ装置1300からインターネット1000を介して取得される(図3参照)。
 なお、このような栞マーク30fは、その後、その表示中には、操作入力用ボタンとしてユーザによりクリック或いはタッチ操作されると、当該栞マークによりその存在が示されている栞データの内容(図4及び図5参照)が適宜、所定フォーマットで表示される。
 次に図14及び図15を参照して、栞データの構成について説明を加える。
 図14には、3名のユーザA,B及びCが有する栞データが図式的に示されており、図15には、3名のユーザD,E及びFが有する栞データが図式的に示されている。
 図14に示すように、ユーザAは、栞データsioriA1~sioriA-7を含んでなるシオリAファイル13aを自らのクライアント装置等で生成された若しくはダウンロードされた又はデフォルトのファイルとして有する。ユーザBは、栞データsioriB1~sioriB-10を含んでなるシオリBファイル13bを自らのクライアント装置等で生成された若しくはダウンロードされた又はデフォルトのファイルとして有する。ユーザCは、栞データsioriC1~sioriC-5を含んでなるシオリCファイル13cを自らのクライアント装置等で生成された若しくはダウンロードされた又はデフォルトのファイルとして有する。なお、このようなシオリファイルは、各クライアント装置で保持管理してもよいが、夫々の個人情報とは別に、クラウド上にアップされ、共有情報として複数のクライアント装置で共有或いは共用とされ、適宜に参照されるのでもよい。
 図15に示すように、ユーザDは、栞データsioriB1~sioriB-10(即ち、図14に示したシオリAファイル)に加えて、栞データsioriD1~sioriD-4(図中、ファイルセット13D-aとしてサークルで囲まれた部分)がダウンロードされてなるシオリファイルセット13Dを、自らのクライアント装置用に生成された若しくはダウンロードされた又はデフォルトのファイルとして有する。
 ユーザEは、栞データsioriA1~sioriA-7(即ち、図14に示したシオリAファイル)に加えて、栞データsioriE1~sioriE-6(図中、ファイルセット13E-aとしてサークルで囲まれた部分)がダウンロードされてなるシオリデータセット13Eを、自らのクライアント装置用に生成若しくはダウンロードされた又はデフォルトのファイルとして有する。
 ユーザFは、栞データsioriC1~siorC5(即ち、図14に示したシオリCファイル)に加えて、栞データsioriF1~sioriF-6(図中、ファイルセット13F-aとしてサークルで囲まれた部分)がダウンロードされてなるシオリデータファイル13Fを、自らのクライアント装置用に生成された若しくはダウンロードされた又はデフォルトのファイルとして有する。
 本実施形態では特に、図15に示したように、ダウンロードされたシオリファイルが追記される(即ち、ダウンロードより以前から当該ユーザが自ら所有する栞ファイルについては失われることなく、残される)ことも可能である。
 次に図16から図19を参照して、栞データ或いは栞マークの表示形態の一つとしての「各種アイコン」について説明を加える。ここに図16から図19には夫々、このような栞データが付加された総人数に応じて形状或いは形相が変化する4種類のアイコンを示す。
 先ず、総人数のカウントの仕方としては、例えば、当該栞データが付加された動画コンテンツの前後5秒間以内の動画コンテンツの少なくとも一部に対して、栞データを付加したユーザ数を総人数としてカウントする。そして、このようなカウントの結果得られる総人数の変化に応じて形状或いは形相が変化するアイコンを表示する。
 例えば、総人数が、最も少ない(例えば全聴講者の10~15%或いはそれ以下である)N1~N2の間であれば、図16のアイコン(具体的には“笑顔マーク”のアイコン)が表示され、総人数が有意義に居る(例えば全聴講者の10%~50%程度である)N2~N3の間であれば、図17のアイコン(具体的には“大笑いマーク”のアイコン)が表示され、総人数が多い(例えば全聴講者の50%~90%程度である)N3~N4の間であれば、図18のアイコン(具体的には“エキサイト”のアイコン)が表示され、総人数が、最も多い(例えば総聴講者の85~90%或いはそれ以上である)N4~N5の間であれば、図19のアイコン(具体的には“熱狂マーク”のアイコン)が表示される。
 このような総人数に係るデータは、例えば、多数のクライアント装置1200から栞データを吸い上げて統計処理を行う栞データサーバ装置1300からインターネット1000を介して取得される(図3参照)。総人数に係るデータは、例えば、同一の動画コンテンツのタイムライン上で、全ユーザの栞データを計測し、その総数を示すものとして取得される。
 本実施例では、図16から図19に示した如きアイコンとして、予めユーザに既知とされる、画面上で目立つ或いは際立つ熱狂アイコンの形状等を定めておく。その後、例えば同一の動画コンテンツ部分に対して多数の栞データが付加されている旨を示す「熱狂アイコン」が、栞データの総数が所定閾値以上である場合に、画面上で目立つ或いは際立つように表示される。例えば、図16~図19の中では、図19にある、ユーザが予めその意味を知らされると共に視覚的に非常に目立つ熱狂アイコンが採用される。これにより、例えば、多数或いは大多数の受験生であるユーザらの間で、判断が一致して、「重要である」等として栞データを付加した動画コンテンツ個所であれば、そういう状況である旨を示す栞データ(この場合、熱狂アイコン)が表示され、各ユーザはそれを容易にして利用できる。加えて、例えば、栞データ数の計測を、当該ユーザと同一ペルソナ(例えば、同一志望校や近似偏差値の別ユーザ)とすれば、参照情報としてより有用である。
 次に図20及び図21を参照して、更なる実施例について説明する。
 図20に示す実施例は、図20の左側に示した如く、表示画面30-5内に、栞データ30gが付加された動画コンテンツ部分が静止画再生又は動画再生されている最中に、入力部40を介して、ユーザにより所望の文字または図柄を入力可能に構成されている。そして、栞表示制御部12は、表示画面30-6内において、栞データ30gと共に入力部40を介して入力された所望の文字または図柄30hを、図20の右側に示した如く、動画コンテンツに重ねて表示可能に構成されている。
 本実施例によれば、栞データ30gを栞マークとして表示しつつ、所謂「落書き」が可能となる。よって、文字または図柄30hと栞データ30gとの両者の存在によって、ユーザは、動画コンテンツの所望の個所に対して、視覚的に、より情報量が多い或いはより自由度の高い表示を実現できる。
 このような落書き機能に加えて又は代えて、栞表示制御部12は、入力部40におけるタッチパネルの接触の軌跡又はマウスの操作の軌跡を、栞データ或いは栞マークとして、表示画面上における蛍光ペンの演出で表示するように構成してもよい。即ち、図20の右側に示した如き、落書きされる文字または図面30hを、栞データ30gに代わる栞マークとしても機能させてよい。すると、栞データを、ユーザが操作した軌跡に応じた可変形状であって、しかも蛍光ペンにより極めて目立つものとして、動画コンテンツ上に表示可能となる。前述したサムネイル(図8のステップS21及びその説明参照)、即ち特に重要な栞が付加された部分を示すサムネイルについては、この蛍光ペンで記入された位置を選択すると効果的である。
 図21に示す実施例は、図21の左側に示した如く、表示画面30-7内に、栞データ30iが栞マークとして付加された動画コンテンツ部分が静止画再生又は動画再生されている最中に、入力部40を介してのユーザからの指示入力を受けて、栞データ30iにリンクされたリンク先の画像データが呼び出される処理が実行され、図21の右側に示した如くに、呼び出したリンク先の画像データが所定フォーマット(具体的には、ウインドウ表示など)で、表示画面30-8内に表示可能に構成されている。この際、栞データ30iに対応するリンク先に係る画像データ(例えば、栞データの付加された動画コンテンツに係る部分に関連する問題や解答・解説を提示する、リンク先のサーバ等から取得可能な動画データや静止画データ)が、操作ボタンとしての機能を有する栞データに対し、入力部40(図1参照)を構成するタッチパネル、マウス等を用いての所定種類の操作が行われることで、表示される。
 特に、リンク先を簡単に指定、変更、追加等できることが強く望まれる環境下でも、結果的に動画コンテンツにおける所望の個所に対応して、所望のリンク先を簡単に指定、設定、変更、追加等することが可能となる。この際、栞データを採用することによって、動画コンテンツのフレーム毎にリンク指定用の各種データを構築するのに比べて遥かに少量のデータを用いて、動画コンテンツ上でリンク先を選択できる仕組みを、構築できる。
 加えて、上述の実施例において、「時間軸」の典型例を構成する時間情報に対して栞データを保存する代わりに、動画の中で講師が話す内容を文節やとても短いチャプタ或いは章で区切り、その文節単位等で栞データを保存するようにしてもよい。文節等に区切るのは、人が聞いて適当な操作入力によって区切ることもできるし、或いは、AIが区切るようにしてもよい。このような時間的には不規則に並べられる文節等の配列も、本発明に係る「時間軸」の一種類或いは変形例を構成する。言い換えれば、本発明に係る「時間軸」を構成するのはタイムスタンプなどの時間情報そのものであってもよいし、時間の経過と共に昇順などで変化する文節番号、チャプタ番号、トラック番号などの並び或いは配列等であってもよい。
 また、受験機関が提供する栞セットとして、例えば「2016年A大学 過去問解説」等として取り扱ってもよい。動画提供に当たり、栞セットの作成が講義内容の抜け・漏れのチェックとなり、コンテンツの向上に繋がる。
 以上詳細に説明した如く、比較的簡易或いは単純な方法で、比較的簡易或いは単純な装置構成を採用しつつ、動画コンテンツに対して所望の栞データを付加すること、言い換えれば、栞を挟むことが可能となり、栞を利用しての様々な再生表示が可能となり、実用上大変便利となる。
 特に、当該表示制御装置のユーザが付加したい栞データを簡単に指定、変更、追加等できることが強く望まれる環境下でも、結果的に任意のオブジェクトに対応して、所望の栞データを簡単に指定、設定、変更、追加等することが可能となる。更に、当該表示制御装置を実現するために必要なプログラムは、簡易なもので済み、処理時間、処理量或いはデータ量を顕著に低減することも可能となる。
 本発明は、上述した実施形態或いは実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う表示制御装置及びコンピュータプログラムもまた本発明の技術的範囲に含まれるものである。
 10…表示制御装置、11…動画表示制御部、12…栞表示制御部、13…栞データベース、14…栞指定生成部、15…検索部、20…動画コンテンツデータベース、30…ディスプレイ、40…入力部

Claims (18)

  1.  表示手段の画面内に、動画コンテンツを静止画再生又は動画再生させる第1制御手段と、
     前記動画コンテンツが静止画再生又は動画再生されている最中に、前記画面内の所定位置若しくは範囲に、所定形状の栞を示すと共に前記動画コンテンツから独立した栞データを、前記動画コンテンツの時間軸上で所定期間だけ前記動画コンテンツに重ねて表示させる第2制御手段と、
     前記栞データを前記動画コンテンツの時間軸に対応付けて保持する保持手段と
     を備えることを特徴とする表示制御装置。
  2.  前記保持手段は、前記栞に係る検索用の一又は複数種類のインデックスデータを、前記栞データの一部として又は前記栞データに対応付けて保持することを特徴とする請求項1に記載の表示制御装置。
  3.  前記動画コンテンツが静止画再生又は動画再生されている最中に、前記栞データを付加する旨の指示が入力されるのに応じて、前記栞データを指定若しくは生成可能な栞指定生成手段を更に備えることを特徴とする請求項1又は2に記載の表示制御装置。
  4.  前記栞指定生成手段は、前記付加する旨の指示に加えて、前記栞に係るコメント、名称及び色のうち少なくとも一つを指定する旨の指示が入力されるのに応じて、前記少なくとも一つを伴う前記栞データを指定若しくは生成可能であり、
     前記第2制御手段は、前記栞データが伴う前記少なくとも一つに従って、前記栞データを表示する
     ことを特徴とする請求項3に記載の表示制御装置。
  5.  前記栞指定生成手段は、前記動画コンテンツ及び前記栞データの少なくとも一方に重ねて表示されるウインドウ画面内若しくはプルダウンメニュー上で、前記少なくとも一つを指定若しくは生成可能に構成されていることを特徴とする請求項4に記載の表示制御装置。
  6.  前記画面は、タッチパネルの画面であり、
     前記栞指定生成手段は、前記タッチパネルへの操作者による接触を、前記栞データの生成開始のトリガーとし、前記接触の終了を、前記栞データの生成終了のトリガーとする
     ことを特徴とする請求項3に記載の表示制御装置。
  7.  前記栞指定生成手段は、マウスへの操作者による第1の操作を前記栞データの生成開始のトリガーとし、第2の操作を前記栞データの生成終了のトリガーとすることを特徴とする請求項3に記載の表示制御装置。
  8.  前記保持手段は、前記所定期間として(i)前記生成開始のトリガーよりも所定時間前から(ii)前記生成終了のトリガーから所定時間後まで、に相当する期間を示すタイムインデックスデータを、前記栞データの一部として又は前記栞データに対応付けて保持することを特徴とする請求項6又は7に記載の表示制御装置。
  9.  前記第1制御手段は、前記接触又は前記マウスの操作が所定時間より短い時間のものである場合、前記動画コンテンツを動画再生から静止画再生に切り替えることを特徴とする請求項6又は7に記載の表示制御装置。
  10.  前記栞指定生成手段は、前記接触又は前記マウスの操作が所定時間より長い時間のものである場合に限定して、前記接触又は前記マウスの操作を前記トリガーとすることを特徴とする請求項6又は7に記載の表示制御装置。
  11.  前記第2制御手段は、前記生成開始のトリガーから前記生成終了のトリガーまでの前記接触の軌跡又は前記マウスの操作の軌跡を、前記栞データとして、前記画面上における蛍光ペンの演出で表示することを特徴とする請求項6又は7に記載の表示制御装置。
  12.  前記第1制御手段は、前記栞指定生成手段により前記栞データが指定若しくは生成される際に、前記動画コンテンツを動画再生から静止画再生又はスロー再生に切り替えることを特徴とする請求項3に記載の表示制御装置。
  13.  前記保持手段は、前記栞データに対応すると共に所望のリンク先を識別するリンク先識別情報を、前記栞データの一部として又は前記栞データに対応付けて保持し、
     前記第2制御手段は、前記動画コンテンツが静止画再生又は動画再生されている最中に、前記リンク先識別情報により識別されるリンク先に係る画像データを、前記動画コンテンツに加えて又は代えて、前記栞データの一部として又は前記栞データに対応付けて表示可能である
     ことを特徴とする請求項1に記載の表示制御装置。
  14.  当該表示制御装置は、他の一又は複数の表示制御装置と共に一つのネットワークに収容されており、
     前記第2制御手段は、前記ネットワークを介して取得される(i)他の一の表示制御装置で生成された一の栞データ及び(ii)他の複数の表示制御装置で生成された複数の栞データに基づく統計処理結果を示す処理済栞データの少なくとも一方を、当該表示制御装置に係る前記栞データに加えて又は代えて表示する
     ことを特徴とする請求項1に記載の表示制御装置。
  15.  前記第2制御手段は、同一動画コンテンツに係ると共に前記所定期間が少なくとも部分的に重なる又は同一である栞データの総数を前記処理済栞データに基づき所定形式で表現する栞マークとして、前記栞データを表示することを特徴とする請求項14に記載の表示制御装置。
  16.  前記第2制御手段は、同一動画コンテンツに係ると共に前記所定期間が少なくとも部分的に重なる又は同一である栞データの総数が所定閾値を超えた場合に、前記栞データに代わる前記処理済データとして若しくは前記処理済みデータに加えて、形状が該総数に応じて可変のアイコンを示す画像データを表示することを特徴とする請求項14に記載の表示制御装置。
  17.  前記動画コンテンツが静止画再生又は動画再生されている最中に、所望の文字または図柄を、入力可能な入力手段を更に備え、
     前記第2制御装手段は、前記栞データと共に若しくは前記栞データの少なくとも一部として、前記入力手段を介して入力された所望の文字または図柄を、前記動画コンテンツに重ねて表示可能であり、
     前記保持手段は、前記栞データに対応付けて前記文字または図柄を示す画像データを保持する
     ことを特徴とする請求項1に記載の表示制御装置。
  18.  コンピュータを、請求項1から17のいずれか一項に記載の表示制御装置として機能させることを特徴とするコンピュータプログラム。
PCT/JP2018/034581 2017-09-22 2018-09-19 表示制御装置及びコンピュータプログラム WO2019059207A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880068856.9A CN111264063A (zh) 2017-09-22 2018-09-19 显示控制设备和计算机程序
KR1020207011523A KR20200089657A (ko) 2017-09-22 2018-09-19 표시 제어 장치 및 컴퓨터 프로그램
JP2019543657A JPWO2019059207A1 (ja) 2017-09-22 2018-09-19 表示制御装置及びコンピュータプログラム
US16/649,212 US11146743B2 (en) 2017-09-22 2018-09-19 Display control apparatus with first controlling device and second controlling device superimposing bookmark data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017182783 2017-09-22
JP2017-182783 2017-09-22

Publications (1)

Publication Number Publication Date
WO2019059207A1 true WO2019059207A1 (ja) 2019-03-28

Family

ID=65811389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/034581 WO2019059207A1 (ja) 2017-09-22 2018-09-19 表示制御装置及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11146743B2 (ja)
JP (1) JPWO2019059207A1 (ja)
KR (1) KR20200089657A (ja)
CN (1) CN111264063A (ja)
WO (1) WO2019059207A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020191540A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 画像読取装置、及び、その制御方法
CN111897765A (zh) * 2020-07-20 2020-11-06 上海连尚网络科技有限公司 生成书签的方法、装置、电子设备及介质
CN114090550B (zh) * 2022-01-19 2022-11-29 成都博恩思医学机器人有限公司 一种机器人数据库构建方法、系统、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1064386A (ja) * 1996-08-23 1998-03-06 Matsushita Electric Works Ltd 静電容量型タッチスイッチ
JP2007088967A (ja) * 2005-09-26 2007-04-05 Nomura Research Institute Ltd コンテンツ供給システム及びコンテンツ再生端末
WO2007091510A1 (ja) * 2006-02-07 2007-08-16 The Tokyo Electric Power Company, Incorporated コンテンツ配信システム
JP2008278088A (ja) * 2007-04-27 2008-11-13 Hitachi Ltd 動画コンテンツに関するコメント管理装置
JP2013025554A (ja) * 2011-07-21 2013-02-04 Sony Corp マーク情報記録装置、マーク情報提示装置、マーク情報記録方法及びマーク情報提示方法
JP2013251787A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2015019492A1 (ja) * 2013-08-09 2015-02-12 富士機械製造株式会社 電子部品装着機が用いるデータを表示する装置
JP2015198387A (ja) * 2014-04-02 2015-11-09 ブラザー工業株式会社 動画処理プログラム、動画処理方法、及び動画処理装置
JP2016080882A (ja) * 2014-10-17 2016-05-16 ヤマハ株式会社 課題管理装置
JP2017016535A (ja) * 2015-07-03 2017-01-19 国立研究開発法人産業技術総合研究所 コメント入力表示システム及び方法並びにコメント入力表示用プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029868A (ja) * 1998-07-10 2000-01-28 Hitachi Ltd 情報処理装置
US7143353B2 (en) * 2001-03-30 2006-11-28 Koninklijke Philips Electronics, N.V. Streaming video bookmarks
JP2003281563A (ja) * 2002-03-22 2003-10-03 Minolta Co Ltd 顔表情生成装置、顔表情生成方法および顔表情生成プログラム
JP3928962B2 (ja) * 2003-08-21 2007-06-13 株式会社日立製作所 通信型車両ナビゲーションシステムのサーバ装置及び車載端末装置
US20050251835A1 (en) * 2004-05-07 2005-11-10 Microsoft Corporation Strategies for pausing and resuming the presentation of programs
JP2006285476A (ja) * 2005-03-31 2006-10-19 Canon Inc 情報処理装置、方法、制御プログラム、媒体
JP2007306279A (ja) * 2006-05-11 2007-11-22 Sony Corp コンテンツマーキング方法、コンテンツ再生装置、コンテンツ再生方法、コンテンツマーキング用プログラムおよびコンテンツ検索用プログラム
US8577404B2 (en) 2008-07-15 2013-11-05 Qualcomm Incorporated Prioritization of group communications at a wireless communication device
JP5097088B2 (ja) * 2008-11-19 2012-12-12 キヤノン株式会社 編集装置および編集方法
JP5714812B2 (ja) * 2009-11-20 2015-05-07 ソニー株式会社 情報処理装置、ブックマーク設定方法およびプログラム
JP5012981B2 (ja) * 2010-09-09 2012-08-29 カシオ計算機株式会社 電子辞書装置およびプログラム
JP2012099911A (ja) * 2010-10-29 2012-05-24 Kyocera Mita Corp 操作装置及び画像形成装置
KR20120048886A (ko) * 2010-11-08 2012-05-16 삼성전자주식회사 웹 페이지 출력 방법 및 장치
WO2012129336A1 (en) * 2011-03-21 2012-09-27 Vincita Networks, Inc. Methods, systems, and media for managing conversations relating to content
JP5608602B2 (ja) 2011-04-13 2014-10-15 京セラ株式会社 しおり作成装置、しおり作成プログラムおよびしおり作成方法ならびに電子書籍閲覧装置
US20140333549A1 (en) * 2011-05-25 2014-11-13 Nec Casio Mobile Communications, Ltd. Input device, input method, and program
JP5562909B2 (ja) 2011-06-22 2014-07-30 日本電信電話株式会社 閲覧再開位置設定装置、閲覧再開位置設定方法及び閲覧再開位置設定プログラム
JP2013168082A (ja) 2012-02-16 2013-08-29 Dainippon Printing Co Ltd 電子しおりシステム、電子しおり及び電子書籍端末
US9899062B2 (en) * 2013-12-09 2018-02-20 Godo Kaisha Ip Bridge 1 Interface apparatus for designating link destination, interface apparatus for viewer, and computer program
CN104967908B (zh) * 2014-09-05 2018-07-24 腾讯科技(深圳)有限公司 视频热点标记方法及装置
CN105530547A (zh) * 2014-09-30 2016-04-27 中兴通讯股份有限公司 一种网络电视点播内容的书签显示方法、装置及机顶盒
US10222958B2 (en) * 2016-07-22 2019-03-05 Zeality Inc. Customizing immersive media content with embedded discoverable elements

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1064386A (ja) * 1996-08-23 1998-03-06 Matsushita Electric Works Ltd 静電容量型タッチスイッチ
JP2007088967A (ja) * 2005-09-26 2007-04-05 Nomura Research Institute Ltd コンテンツ供給システム及びコンテンツ再生端末
WO2007091510A1 (ja) * 2006-02-07 2007-08-16 The Tokyo Electric Power Company, Incorporated コンテンツ配信システム
US20090055406A1 (en) * 2006-02-07 2009-02-26 Norimitsu Kubono Content Distribution System
CN101379823A (zh) * 2006-02-07 2009-03-04 东京电力株式会社 内容传送系统
JP2008278088A (ja) * 2007-04-27 2008-11-13 Hitachi Ltd 動画コンテンツに関するコメント管理装置
JP2013025554A (ja) * 2011-07-21 2013-02-04 Sony Corp マーク情報記録装置、マーク情報提示装置、マーク情報記録方法及びマーク情報提示方法
JP2013251787A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2015019492A1 (ja) * 2013-08-09 2015-02-12 富士機械製造株式会社 電子部品装着機が用いるデータを表示する装置
JP2015198387A (ja) * 2014-04-02 2015-11-09 ブラザー工業株式会社 動画処理プログラム、動画処理方法、及び動画処理装置
JP2016080882A (ja) * 2014-10-17 2016-05-16 ヤマハ株式会社 課題管理装置
JP2017016535A (ja) * 2015-07-03 2017-01-19 国立研究開発法人産業技術総合研究所 コメント入力表示システム及び方法並びにコメント入力表示用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SASAKI K. ET AL.: "A Web-Based System of Partial Movie Viewing and Comprehension Testing Using Learner's Markers", IEICE TECHNICAL REPORT, vol. 110, no. 405, 21 January 2011 (2011-01-21), pages 39 - 44, ISSN: 0913-5685 *

Also Published As

Publication number Publication date
US20200304728A1 (en) 2020-09-24
JPWO2019059207A1 (ja) 2021-01-07
KR20200089657A (ko) 2020-07-27
CN111264063A (zh) 2020-06-09
US11146743B2 (en) 2021-10-12

Similar Documents

Publication Publication Date Title
US10580319B2 (en) Interactive multimedia story creation application
US11983837B2 (en) Cheating deterrence in VR education environments
US9875771B2 (en) Apparatus of providing a user interface for playing and editing moving pictures and the method thereof
US11343595B2 (en) User interface elements for content selection in media narrative presentation
US10642463B2 (en) Interactive management system for performing arts productions
JP2009145883A (ja) 学習システム、記憶媒体及び学習方法
KR20150041249A (ko) 가상 체험북 시스템과 그 동작 방법
TW201203113A (en) Graphical representation of events
WO2019059207A1 (ja) 表示制御装置及びコンピュータプログラム
CN114846808B (zh) 内容发布系统、内容发布方法以及存储介质
US20200104030A1 (en) User interface elements for content selection in 360 video narrative presentations
Alam et al. Mobile haptic e-book system to support 3D immersive reading in ubiquitous environments
CN107660285A (zh) 用于生成基于聚类的搜索结果的方法和系统
Benford et al. Designing the audience journey through repeated experiences
Donnellan Articulate Storyline 360
TW201312497A (zh) 用於製作個人化影音編輯系統
KR101901724B1 (ko) 퍼즐 놀이기구를 이용한 글짓기 교육 시스템 및 그 방법
Lior Mediating for Immediacy: Text, Performance, and Dramaturgy in Multimedia Shakespeare Editions
Hassan et al. Designing and Evaluating an Advanced Dance Video Comprehension Tool with In-situ Move Identification Capabilities
JP2024031185A (ja) アニメーション作品を用いた記憶支援プログラム、アニメーション作品を用いた記憶支援方法及びアニメーション作品を用いた記憶支援装置
Makivic The Bicyclist and Other Stories: Combining Images, Text and Code to Create Visual, Interactive and Immersive Narratives
JP2024016496A (ja) アニメーション作品を用いた記憶支援プログラム、アニメーション作品を用いた記憶支援方法及びアニメーション作品を用いた記憶支援装置
JP2023141808A (ja) 動画配信装置
JPWO2020071545A1 (ja) 情報処理装置
Wang et al. Exploring rich interactive experience on mobile ebooks by emotional design approach

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18859453

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2019543657

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18859453

Country of ref document: EP

Kind code of ref document: A1