WO2013080728A1 - コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム - Google Patents

コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム Download PDF

Info

Publication number
WO2013080728A1
WO2013080728A1 PCT/JP2012/078046 JP2012078046W WO2013080728A1 WO 2013080728 A1 WO2013080728 A1 WO 2013080728A1 JP 2012078046 W JP2012078046 W JP 2012078046W WO 2013080728 A1 WO2013080728 A1 WO 2013080728A1
Authority
WO
WIPO (PCT)
Prior art keywords
selection
category
content
time
area
Prior art date
Application number
PCT/JP2012/078046
Other languages
English (en)
French (fr)
Inventor
めぐみ 西田
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2013080728A1 publication Critical patent/WO2013080728A1/ja
Priority to US14/076,978 priority Critical patent/US20140068474A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation

Definitions

  • the present invention relates to a content selection device, a content selection method, and a content selection program for selecting content according to a user's intention from a plurality of contents.
  • Patent Document 1 describes a technique that allows the user to intuitively select a desired amount of content by continuously pressing one point on the display.
  • Patent Document 1 By using the technique described in Patent Document 1, it is possible to intuitively select a user's favorite amount of content at a time, but only content with a similar tendency can be selected.
  • the present invention has been made in view of such a problem, and a content selection device and a content selection method capable of selecting a plurality of contents more in line with the user's intention from a large amount of contents with a simple operation. And a content selection program.
  • the content selection device generates a GUI image including a plurality of category areas to which one or a plurality of categories for classifying content are assigned.
  • a GUI image generation unit a selection presence / absence determination unit that determines whether or not a selection operation input that is an operation input for selecting a predetermined range on a display screen on which the GUI image is displayed; and the selection operation input
  • a selection area specifying unit that specifies an area corresponding to the position selected by the storage area
  • a storage control unit that stores selection category information indicating a selection category area that is an area specified by the selection area specifying unit in the storage unit, and
  • a content selection unit that selects predetermined content from a plurality of the content based on selection category information And features.
  • the content selection method includes a GUI image generation step for generating a GUI image including a plurality of category areas, which are areas to which one or more categories for classifying content are assigned, and the GUI image is displayed.
  • a selection presence / absence determining step for determining whether or not a selection operation input that is an operation input for selecting a predetermined range on the display screen is input, and an area corresponding to the position selected by the selection operation input is specified
  • a selection area specifying step ; a storage control step for storing selection category information indicating a selection category area that is an area specified in the selection area specifying step; and a storage control step for storing a plurality of the contents based on the selection category information.
  • a content selection step for selecting predetermined content from the content.
  • the content selection program includes a GUI image generation step for generating a GUI image including a plurality of category areas, which are areas to which one or more categories for classifying content are assigned to a computer, and the GUI image
  • a selection presence / absence determination step for determining whether or not a selection operation input that is an operation input for selecting within a predetermined range on the display screen on which is displayed, and an area corresponding to the position selected by the selection operation input
  • a storage control step for storing selection category information indicating a selection category area that is an area specified in the selection area specification step, and a plurality of selection category information based on the selection category information.
  • a content selection section for selecting predetermined content from the content. Characterized in that it is executed and-up.
  • the content selection device, content selection method, and content selection program of the present invention it is possible to select a plurality of contents more in line with the user's intentions from a large amount of contents with a simple operation.
  • FIG. 1 is a block diagram showing a content selection device according to each embodiment of the present invention.
  • FIG. 2 is a schematic diagram illustrating a display unit and a touch panel according to each embodiment of the present invention.
  • FIG. 3 is a schematic diagram for explaining a GUI image in the first to third embodiments of the present invention.
  • FIG. 4 is a flowchart for explaining the content selection method according to the first embodiment of the present invention.
  • FIG. 5A is a diagram for explaining a selection category table in the first embodiment of the present invention.
  • FIG. 5B is a diagram for explaining a selection category table in the first embodiment of the present invention.
  • FIG. 5C is a diagram for describing a selection category table in the first embodiment of the present invention.
  • FIG. 5A is a diagram for explaining a selection category table in the first embodiment of the present invention.
  • FIG. 5B is a diagram for explaining a selection category table in the first embodiment of the present invention.
  • FIG. 5C is a diagram for describing a
  • FIG. 5D is a diagram for describing a selection category table in the first embodiment of the present invention.
  • FIG. 5E is a diagram for describing a selection category table in the first embodiment of the present invention.
  • FIG. 6 is a diagram for explaining the selection time in the first embodiment of the present invention.
  • FIG. 7A is a content list for explaining a content selection method according to the first embodiment of the present invention.
  • FIG. 7B is a content list for explaining the content selection method according to the first embodiment of the present invention.
  • FIG. 8 is a schematic diagram for explaining another example of the GUI image in the first to third embodiments of the present invention.
  • FIG. 9 is a flowchart for explaining a content selection method according to the second embodiment of the present invention.
  • FIG. 10 is a flowchart for explaining a content selection method according to the third embodiment of the present invention.
  • FIG. 11A is a diagram for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11B is a diagram for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11C is a diagram for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11D is a diagram for describing a selection category table in the third embodiment of the present invention.
  • FIG. 11E is a view for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11F is a view for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11A is a diagram for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11B is a diagram for explaining a selection category table in the third embodiment of the present invention.
  • FIG. 11C is a diagram for explaining a selection category table in the
  • FIG. 12A is a content list for explaining a content selection method according to the third embodiment of the present invention.
  • FIG. 12B is a content list for explaining a content selection method according to the third embodiment of the present invention.
  • FIG. 13 is a schematic diagram for explaining a GUI image according to the fourth embodiment of the present invention.
  • FIG. 14 is a schematic diagram for explaining a GUI image according to the fifth embodiment of the present invention.
  • FIG. 15 is a diagram for explaining a selection category table in the fifth embodiment of the present invention.
  • FIG. 16 is a content list for explaining a content selection method according to the fifth embodiment of the present invention.
  • the content selection apparatus 100 of 1st Embodiment is demonstrated using the block diagram shown in FIG. First, the controlled unit 1a including the content recording unit 3, the content data processing unit 4, the audio output unit 5, the GUI image generating unit 6, and the operation control unit 106 included in the control unit 1 will be described. Operations other than the operation control unit 106 in the control unit 1 will be described as needed after the description of the controlled unit 1a and the operation control unit 106.
  • the content selection device 100 corresponding to music content and video content will be described, but the present invention can also be applied to a device that reproduces only music content, in which case only the video content is concerned. It does not have to have a function. Further, the present invention can also be applied to an apparatus that reproduces only video content, and in that case, a function related only to music content may not be provided.
  • the content recording unit 3 stores content data.
  • the content data is, for example, music content made up of audio data, and video content such as music videos and movies made up of video data and audio data. In the case of video content, video data and audio data are synchronized.
  • the content recording unit 3 also has a function of outputting data, and outputs audio data and video data included in the content data under the control of the operation control unit 106 described later.
  • a hard disk drive (HDD), a flash memory, or the like can be used for the content recording unit 3, and it may be detachable or non-detachable.
  • the content recording unit 3 may be provided outside, and the content selection device 100 may communicate with the content recording unit 3 via a network to acquire content data.
  • the content data processing unit 4 converts the audio data output from the content recording unit 3 into an audio signal (for example, an analog audio signal) and outputs the audio signal. Further, the content data processing unit 4 converts the video data output from the content recording unit 3 into a video signal (for example, an RGB signal), and outputs the video signal in synchronization with the audio signal.
  • an audio signal for example, an analog audio signal
  • a video signal for example, an RGB signal
  • the audio output unit 5 includes, for example, a speaker and an amplifier, and reproduces the audio signal output from the content data processing unit 4.
  • the operation control unit 106 adjusts the volume and quality of the sound output from the sound output unit 5. Further, the operation control unit 106 controls a GUI (Graphical User Interface) image generation unit 6 in accordance with an operation input by the user.
  • the GUI image generation unit 6 generates a GUI image based on the control by the operation control unit 106, and outputs a signal for displaying the GUI image.
  • a CPU, a DSP, or the like can be used for the control unit 1 having the operation control unit 106.
  • the control unit 1 may be configured using a plurality of CPUs or DSPs, or the control unit 1 may be configured using a single CPU or DSP.
  • the GUI image generation unit 6 When the video content is being reproduced, the GUI image generation unit 6 superimposes the image based on the video signal output from the content data processing unit 4 and the GUI image, and displays a signal for displaying the superimposed image signal. Is output. When a GUI image is not output during video signal reproduction, the GUI image generation unit 6 does not perform any particular processing, and the video signal output from the content data processing unit 4 is output as it is. Further, when the video signal is not being played back or when the video content is not played back, only the signal for displaying the GUI image is output. At this time, the GUI image generation unit 6 may superimpose an arbitrary background image and a GUI image, and output a signal for displaying the superimposed image signal. The GUI image generation unit 6 may generate a GUI image simply by reading an image recorded in the content recording unit 3 or another recording unit (not shown).
  • the display unit 7 displays an image based on the signal output from the GUI image generation unit 6.
  • a liquid crystal panel or an organic EL panel can be used.
  • the power supply 2 supplies electric power to the to-be-powered supply part 2a.
  • the operation input unit 8 can be a remote controller, a mouse, a touch panel, or the like, and an operation input is input from the user.
  • the touch panel has an operation surface 8 b for detecting an operation input on the touch panel so that an operation on the touch panel is associated with a GUI image.
  • the display unit 7 is disposed so as to overlap the display unit 7 so that the display surface 7b on the display unit 7 is parallel to the display surface 7b. In this manner, the operation on the touch panel can be associated with the GUI image.
  • various touch panels such as a capacitance method and a resistance film method can be used.
  • selection means a display as shown in FIG. 3 by pressing a button on the remote controller, clicking a mouse, touching (or approaching) a pointing means to the touch panel, and the like. This means selection of any position in the screen HG.
  • the pointing means is a bar-shaped pointing tool for operating the touch panel or a user's finger.
  • the predetermined area is selected. It will be done.
  • a click operation on the mouse is performed in a state where the instruction image SG corresponding to the mouse operation is displayed in a predetermined area in the display screen HG, the predetermined area is selected.
  • the pointing means contacts or approaches a predetermined position on the touch panel corresponding to a predetermined area in the display screen HG of the display unit 7 provided corresponding to the touch panel, and a selection presence / absence determination unit 101 described later is displayed. When the contact or proximity is sensed, the predetermined area is selected.
  • the GUI image Gi is divided into a plurality of category regions C (Ca to Cm, CMA) as indicated by a two-dot chain line in FIG.
  • Each category area C is assigned one or more categories for classifying a plurality of contents recorded by the content recording unit 3.
  • the boundary of each category region C may be identifiable or indistinguishable. In FIG. 3, the boundary is indicated by a two-dot chain line for the sake of explanation.
  • the instruction image SG as when using a mouse or a remote controller may not be displayed.
  • the solid line indicating the GUI image Gi and the two-dot chain line indicating the plurality of category regions C are illustrated as not matching, but may be configured to match.
  • the category is information for classifying contents such as genres such as rock, pop, classic, artist name, album name, age such as release start date, musical tone (musical feature), and the like.
  • contents such as genres such as rock, pop, classic, artist name, album name, age such as release start date, musical tone (musical feature), and the like.
  • genres such as movies, music videos, and comedies, video producers, age such as announcement time, etc. can be used as categories. Note that these categories are examples, and other various categories can be used.
  • the content data includes metadata indicating which of these categories belongs, and the content selection unit 105 described later selects content belonging to the category by referring to the metadata. Can do.
  • the music tone may be calculated by various known methods, or the person who listens to the music may assign an impression of each music. Note that the music tone may be calculated by the content selection device 100, or a calculation result performed by another device may be referred to.
  • a method for calculating the music tone a method can be used in which an acoustic feature amount is generated from the acoustic signal of a musical piece and an impression word is generated using the acoustic feature amount.
  • an acoustic feature amount is calculated from an acoustic signal by a method disclosed in Japanese Patent Laid-Open Nos. 6-290574 and 2002-278547, and then a set of musical pieces for learning is prepared. Then, after giving impression words such as Crazy and Vivid to those musical pieces, a rule for converting acoustic feature amounts into impression words using a known decision tree or Bayes rule is created. Then, an impression word is generated using the created conversion rule.
  • the decision tree and the Bayes rule are merely examples, and the impression word may be assigned using another method that can obtain an output equivalent to these methods.
  • a method for extracting the acoustic feature amount for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-322598 can be used.
  • the intensity, frequency distribution, tempo, beat intensity, and the like of the audio signal may be detected as the acoustic feature amount.
  • the acoustic feature quantity may be extracted for that section.
  • music tone when used as a category, it may be calculated each time without using metadata. Moreover, you may make it acquire the information regarding a music tone via a network. Further, for other categories, it may be configured such that category information is acquired via a network each time.
  • a category relating to the tone of music is assigned to the category areas Ca to Cm as an example.
  • categories relating to musical tones such as Crazy, Vivid, Orthodox, Dynamic, Relax, Gentle, Simple, Silent, Cool, Urban, Sync, Active, and Powerful are assigned to the category areas Ca to Cm, respectively.
  • the category area CMA is assigned all the categories assigned to the category areas Ca to Cm, and when this category area CMA is selected, the contents are randomly selected from all the contents. Become. In that case, it is preferable to select an equal number of contents from each category, but this is not restrictive. Further, the number of category areas C allocated in the GUI image Gi is not limited to the 13 types described above.
  • the GUI image Gi does not necessarily need to be circular, but by making it circular, it is possible to make it easy to select content by a single operation input like the locus K1.
  • the shape does not have to be a perfect circle.
  • an ellipse or the like can be easily selected by a single operation input.
  • the circular shape in the present invention includes an elliptical shape and the like.
  • the GUI image Gi does not necessarily have to be arranged such that the plurality of category areas C as shown in FIG. 3 are adjacent to each other in the circular circumferential direction without gaps, and may be arranged with gaps. However, by arranging them adjacently without a gap, it is possible to make it easier to select content by a single operation input such as the locus K1 and the locus K2.
  • the category areas that are closer to each other in the circumferential direction have similar category areas.
  • the content can be selected so as to gradually transition to a quiet song, or the content can be selected so as to gradually transition from old content to recent content.
  • the GUI image Gi is made circular in this way, even if the content is selected without being based on the selection time, a plurality of content more in line with the user's intention can be selected with a simple operation. Can do.
  • the above-described category area CMA is not necessarily provided.
  • the category area CMA when the category area CMA is provided near the center of the circle, the user performs an operation input that passes near the center of the circle like the locus K2.
  • the tone of music suddenly changes from content belonging to Crazy to content belonging to Silent.
  • a category area CMA is provided, content belonging to Crazy In the middle of moving to the content belonging to Silent, the content belonging to another category is reproduced, and a natural content reproduction order can be obtained. This is effective, for example, when the tone of the category areas facing each other across the center of the circle is greatly different.
  • the time measurement unit 103 measures time related to a selection operation input that is an operation input for selecting a predetermined range in the display screen HG on which a GUI image is displayed, and relates to the selection operation input. This is a method of selecting a predetermined content from a plurality of contents based on information indicating a selection time which is a time.
  • the selection time in the present embodiment is the time from when the user starts content selection until the content selection ends. Specifically, in this embodiment, it is the time from the start of the selection of any position in the category area C to the state where no position in the category area C is selected. And In this case, the predetermined range in the display screen HG described above is within the range of the category region C. As described above, if the position is limited to the position in the category area C, the possibility that the operation input is an operation input related to content selection becomes very high, and thus it is possible to select the content more in line with the user's intention. In this case, the selection time is the time from when any position in the category area C is selected until when no position in the category area C is selected.
  • the selection time may be the time from the start of the selection of any position in the display screen HG by the user until the selection is completed. Can demonstrate.
  • the above-mentioned predetermined range in the display screen HG is the entire display screen HG, and the selection time is any point in the display screen HG from when a position in the display screen HG is selected. This is the time until the point where no position is selected.
  • the selection time may be a time from when selection of any position in the category region C is started until no position in the display screen HG is selected.
  • the above-mentioned predetermined range on the display screen HG is within the range of the category area C before the selection of any position within the category area C is started, and any position within the category area C is started.
  • the entire display screen HG is displayed.
  • the selection time is set to the user time. From the start of the selection of any position in the display screen HG by the time until the selection is completed (until interruption), or after the selection of any position in the category region C starts, It is preferable to set the time until no position in the display screen HG is selected.
  • the selection time is from the point when the selection of any position in the display screen HG starts, and then the selected position moves into the category area C, and any position in the category area C It may be the time until the time when the state is not selected.
  • the above-mentioned predetermined range in the display screen HG is the entire display screen HG before the selection of any position in the display screen HG starts, and any position in the display screen HG. After selection starts, it is within the range of the category area C.
  • the content selection method performed by the control unit 1 will be described in detail using an example in which the selection operation input of the locus K1 as illustrated in FIG. 3 is performed.
  • the category area Cab indicating the tone of Crazy
  • the category area Cb indicating the tone of Vivid
  • the category area Cc indicating the tone of Orthodox
  • the tone of the category Cc indicating dynamic. Is passed through the five category areas C of the category area Ce showing the tone of the category areas Cd and Relax.
  • the selection area specifying unit 102 responds to the operation input in step S41.
  • the region selected by the selection operation input is specified based on the operation input signal that is the received signal.
  • the operation input signal is input from the operation input unit 8.
  • the selection presence / absence determination unit 101 determines whether or not a selection operation input is input.
  • the selection operation input is an operation input for selecting any position in the category region C as described above. Therefore, the selection presence / absence determination unit 101 determines whether the selection operation input is input by determining whether the region specified by the selection region specifying unit 102 is the category region C.
  • the selection presence / absence determination unit 101 and the selection region specifying unit 102 function as a position detection unit 107 that detects a position corresponding to an operation input.
  • the pointing means When a touch panel is used as the operation input unit 8, the pointing means is in contact with or close to a position corresponding to one of the category areas C on the touch panel, and the selection presence / absence determination unit 101 changes the voltage due to the contact or proximity. Is detected, the selection operation input is input.
  • a remote controller When a remote controller is used for the operation input unit 8, when the instruction image SG is displayed in any category area C and the remote controller button is pressed, a selection operation input is input. Will be.
  • a mouse When a mouse is used as the operation input unit 8, when a click operation is performed on the mouse while the instruction image SG is displayed in any of the category areas C, a selection operation input is input. Will be.
  • the selection presence / absence determination unit 101 simply selects an operation input signal. By determining whether or not there is a selection operation input, it may be determined whether or not a selection operation input has been input.
  • step S41 If it is determined in step S41 that the selection operation input is input by the selection presence / absence determination unit 101 (Yes), the time measurement unit 103 starts measuring time in the next step S42. In the example of the locus K1 in FIG. 3, the time measurement is started from the time when the selected position reaches the point SP2. On the other hand, when the selection operation input is not input (No), step S41 is repeated. In the present embodiment, step S41 is repeated while the position between the start point SP1 and the point SP2 is selected.
  • the storage control unit 104 updates the selection category table shown in FIGS. 5A to 5E. That is, the selected category information Ct indicating the selected category area that is the category area selected by the selection operation input is stored in the storage unit 9. For example, when the selection operation input locus K1 reaches the point SP2, the category area Ca is selected. Therefore, the storage control unit 104 stores the selected category information Ct indicating the category area Ca in the storage unit 9.
  • the selected category table is a table in which selected category information Ct indicating the selected category area is associated with the selected order Or.
  • a plurality of category areas are selected by one selection operation input (selection operation input by the locus K1) while the selection operation input is being input.
  • “Crazy (Ca)” that is the selected category information Ct indicating the category area Ca is stored together with “1” that is the selected order.
  • the phrases “Crazy (Ca)” and “1” are phrases for facilitating understanding, and an arbitrary identifier or the like may be used.
  • the selected area specifying unit 102 determines whether or not the currently selected category area is in a non-selected state. If the currently selected category area is not selected in step S44 (Yes), in the next step S45, the selection presence / absence determining unit 101 selects other areas other than the selected category area. It is judged whether it is done. On the other hand, if the currently selected category region is not in the non-selected state (No), step S44 is repeated. If another area is selected in step S45 (Yes), it means that the area has been moved from the previously selected area to another area. In this case, the process returns to step S43, and the storage control unit 104 causes the storage unit 9 to store the selected category information Ct indicating the destination category area and the order Or in which the category is selected.
  • the selected category information Ct indicating the category area Cb is “Vivid (Cb)”.
  • the selected order Or is stored together with “2”.
  • Steps S43 to S45 are repeated between the points SP2 and EP2. That is, when the selected position moves from the category area Cb to the category area Cc, “Orthodox (Cc)”, which is the selected category information Ct indicating the category area Cc, is selected as shown in FIG. 5C. It is added to the selected category table together with “3” which is the ordered Or. When the selected position moves from the category area Cc to the category area Cd, as shown in FIG. 5D, “Dynamic (Cd)” that is the selected category information Ct indicating the category area Cd is selected. Along with “4” which is the order Or, it is added to the selected category table.
  • the selected category information Ct indicating the category area Ce is “Relax (Ce)”. Along with “5” which is the order Or, it is added to the selected category table.
  • Presence / absence determination unit 101 determines that a selection operation input has not been input, and upon receiving the determination, time measurement unit 103 ends the time measurement. Then, the storage control unit 104 causes the storage control unit 104 to store the selection time Ttm measured by the time measurement unit 103. In the present embodiment, it is the time from the point SP2 to the point EP2 when the selection operation input is made. In the present embodiment, as shown in FIG. 6, “1.0 s” that is the selection time Ttm is stored. The phrase “1.0 s” is a phrase for facilitating understanding, and an arbitrary identifier or the like indicating 1.0 second may be used.
  • the content selection unit 105 selects a predetermined content from the plurality of contents based on the selection category information Ct, the selected order Or, and the selection time Ttm.
  • FIG. 7A The content selection unit 105 selects more content as the selection time Ttm is longer.
  • the content selection unit 105 selects, for example, a content group La composed of five contents when the selection time Ttm is 1.0 s.
  • the content selection unit 105 selects a content group Lb composed of, for example, 10 contents when the selection time Ttm is 2.0 s.
  • the number of contents proportional to the selection time Ttm may or may not be selected.
  • the content selection unit 105 selects content belonging to the category indicated by the selection category information Ct.
  • content belonging to each of the five categories “Crazy”, “Vivid”, “Orthodox”, “Dynamic”, and “Relax” indicated by the selection category information Ct is selected.
  • FIG. 7A one content M1a belonging to “Crazy”, one content M2a belonging to “Vivid”, one content M3a belonging to “Orthodox”, one content M4a belonging to “Dynamic”, “Relax”
  • the content selection unit 105 when selecting a content group with a predetermined order, such as a playlist, refers to the order Or in the selection category table, and selects content in the order based on the order Or. As shown in FIGS. 7A and 7B, contents are selected in the order of “Crazy”, “Vivid”, “Orthodox”, “Dynamic”, and “Relax” based on the order Or. By selecting the contents with the order determined in this way, the user can reproduce the contents in that order. In addition, when it is not a playlist, it is not always necessary to make a selection based on the order Or. In that case, the order Or may not be stored. The above is the details of the content selection method in the present embodiment.
  • the user can select a category to be selected and a rough number of contents simply by performing an operation input such as the locus K1. Therefore, it is possible to select content according to the intention from a large amount of content with a simple operation.
  • step S45 when no area other than the selected category area is selected (No), no category area is selected. In the present embodiment, even if no category area is selected, the content is not selected immediately, and no category area is selected for a predetermined time or longer (in step S90). Yes), it is determined that the selection operation has been completed, and the content is selected. This will be specifically described below.
  • the selection presence / absence determining unit 101 is in a state where no category area is selected in the next step S90. Whether or not has continued for a predetermined time or more.
  • the predetermined time is, for example, about 0.5 seconds, but is not limited thereto.
  • the predetermined time is measured by the time measuring unit 103.
  • step S90 If it is determined in step S90 that no category area has been selected for a predetermined time or longer (No), it is determined in the next step S91 whether the category area that has been selected most recently has been selected again. to decide. If the category area that has been selected most recently is selected again (Yes), the process returns to step S44. If the category area that has been selected most recently has not been selected again (No), the process returns to step S45, and it is determined whether another category area other than the category area that has been selected most recently has been selected.
  • step S90 determines that no category area has been selected for a predetermined time or longer (Yes)
  • the selection presence / absence determining unit 101 determines that the selection operation input has been completed in the next step S92.
  • the time measurement unit 103 ends the measurement of the selection time Ttm.
  • the content selection unit 105 selects a predetermined content from the plurality of contents based on the selection category information Ct, the selected order Or, and the selection time Ttm.
  • step S90 If no category area is selected for a predetermined time or longer (No in step S90), the loop included in steps S43, S44, S45, S90, and S91 is repeated.
  • the selection time in the present embodiment is the time from when any position in the plurality of category areas C is selected until when no category area is selected for a predetermined time or longer. is there. The time from when any position in the display screen HG is selected until when no position in the display screen HG is selected for a predetermined time or longer may be used as the selection time.
  • the time from when any position in the plurality of category regions C is selected until when no position in the display screen HG is selected for a predetermined time or longer is used as the selection time. Good. This is particularly effective when the category areas are separated as shown in FIG. Further, from the point when selection of any position in the display screen HG starts, the selected position moves to the category area C, and no position in the category area C is selected. The time until the point where the state continues for a predetermined time or more may be set as the selection time.
  • a content selection method according to the third embodiment will be described with reference to FIGS. Other than the content selection method, it is the same as in the other embodiments. Therefore, the description other than the content selection method is omitted.
  • the information in the selection category table differs between the content selection method in the first and second embodiments and the content selection method in the present embodiment. In particular, the selection time Tm is different. Also, since the information in the selection category table is different, the method for selecting content is also different.
  • the selection area specifying unit 102 selects the operation input.
  • the region selected by the selection operation input is specified based on the operation input signal that is a signal according to the above.
  • the operation input signal is input from the operation input unit 8.
  • the selection presence / absence determination unit 101 determines whether or not a selection operation input is input.
  • the selection operation input is an operation input for selecting any position in the category region C as an example. Therefore, the selection presence / absence determination unit 101 determines whether the selection operation input is input by determining whether the region specified by the selection region specifying unit 102 is the category region C.
  • step S11 If it is determined in step S11 that a selection operation input has been input (Yes), the storage control unit 104 updates the selection category table in the next step S12. That is, the selected category information Ct indicating the category area selected by the selection operation input is stored in the storage unit 9. For example, when the selection operation input locus K1 as shown in FIG. 3 reaches the point SP2, the category area Ca is selected. Therefore, the storage control unit 104 stores the selected category information Ct indicating the category area Ca in the storage unit 9 together with the selected order Or.
  • the selection category table in the present embodiment is a table in which selection category information Ct indicating a selected category area, a selected order Or, and a selection time Tm that is a time when each category area is selected are associated with each other. It has become.
  • “Crazy (Ca)” that is the selected category information Ct indicating the category area Ca is stored together with “1” that is the selected order.
  • the selection time Tm related to the category area Ca is not yet stored.
  • Step S11 is repeated.
  • step S11 is repeated while the position between the start point SP1 and the point SP2 is selected.
  • the time measuring unit 103 starts measuring time.
  • the time measurement is started from the time when the selected position reaches the point SP2.
  • step S14 the selected area specifying unit 102 determines whether or not the currently selected category area is in a non-selected state.
  • step S14 when the currently selected category region is in a non-selected state (Yes), in the next step S15, the time measuring unit 103 ends the time measurement and proceeds to step S16. On the other hand, if the currently selected category region is not in the non-selected state (No), step S14 is repeated.
  • step S ⁇ b> 16 the selection presence / absence determination unit 101 determines whether a region other than the selected category region is selected.
  • step S16 if another area is selected (Yes), the area has been moved from the previously selected area to another area. In this case, the process returns to step S12. Then, when returning to step S12, as shown in FIG. 11B, the storage control unit 104 sets “Vivid (Cb)”, which is the selected category information Ct indicating the destination category area, to the selected order Or. Stored with “2”. Further, as shown in FIG. 11B, a selection time Tm indicating a time from when the category area Ca starts to be selected until the category area Ca is in a non-selected state is also stored. The time stored at this time is the time when the category area Ca has been selected, and is “1.5 s” as an example.
  • steps S12 to S16 are repeated between the points SP2 and EP2.
  • “Orthodox (Cc)” that is the selected category information Ct indicating the category area Cc is selected. It is added to the selected category table together with “3” which is the ordered Or.
  • a selection time Tm indicating a time from when the category area Cb starts to be selected until the category area Cb is in a non-selected state is also stored. The time stored at this time is the time when the category area Cb is selected, and is “2.0 s” as an example.
  • “Dynamic (Cd)” that is the selected category information Ct indicating the category area Cd is selected. It is added to the selected category table together with “4” which is the ordered Or.
  • a selection time Tm indicating a time from when the category area Cc starts to be selected until the category area Cc enters a non-selected state is also stored. The time stored at this time is the time when the category area Cc was selected, and is “3.5 s” as an example.
  • the selected category information Ct indicating the category area Ce is “Relax (Ce)”. It is added to the selected category table together with “5” which is the ordered Or. Also, as shown in FIG. 11E, a selection time Tm indicating the time from when the category region Cd starts to be selected until the category region Cd is in a non-selected state is also stored. The time stored at this time is the time when the category area Cd is selected, and is “1.0 s” as an example.
  • step S16 determines that a selection operation input has not been input.
  • the storage control unit 104 stores the selection time Tm during which the category region Ce selected last was selected. .
  • the storage control unit 104 enters a state where no category area is selected after the category area Ce starts to be selected.
  • the selection time Tm indicating the time until (the time until the category region Ce is in a non-selected state) is stored.
  • the time stored at this time is the time when the category region Ce selected last is selected, and is “2.0 s” as an example.
  • the selection time Tm may be added.
  • the phrase such as “1.0 s” used in the above description is a phrase for facilitating understanding, and an arbitrary identifier or the like indicating 1.0 second may be used.
  • the content selection unit 105 selects a predetermined content from a plurality of contents based on each selection category information Ct, each selected order Or, and each selection time Tm. select.
  • the content selection unit 105 selects content so that the content belonging to the category having a longer selection time Tm is selected more. In the example illustrated in FIG. 12A, the content selection unit 105 selects one content for a selection time Tm of 0.5 seconds.
  • the content selection unit 105 selects three contents M1c belonging to Crazy (Ca). Similarly, since the selection time Tm of Vivid (Cb) is 2.0 seconds, the content selection unit 105 has four contents M2c belonging to Vivid (Cb) and the selection time Tm of Orthodox (Cc) is 3.5 seconds. Since there are seven contents M3c belonging to Orthodox (Cc) and the selection time Tm of Dynamic (Cd) is 1.0 second, two contents M4c belonging to Dynamic (Cd) and a selection time Tm of Relax (Ce) is 2.0. Since it is second, four contents M5c belonging to Relax (Ce) are selected. In the example shown in FIG. 12A, the number of contents proportional to the selection time Tm may or may not be selected.
  • the content selection method is the same as the above-described content selection method in that the content is selected so that the content belonging to the category having a longer selection time Tm is selected. However, in this example, each of the total time of the selection times Tm in all categories The content is selected based on the ratio of the selection time Tm. This method is effective when the total number of contents to be selected is predetermined.
  • the total number of contents to be selected is set to 40 in advance.
  • the number of 40 is determined by being specified by the user.
  • the content selection unit 105 calculates the ratio of each selection time Tm to the total time.
  • the ratio of the selection time Tm of Crazy (Ca) to the total time is 1.5 / 10.0.
  • the ratio of the selection time Tm of Vivid (Cb) to the total time is 2.0 / 10.0
  • the ratio of the selection time Tm of Orthodox (Cc) to the total time is 3.5 / 10.0, to the total time.
  • the ratio of the selection time Tm of Dynamic (Cd) is 1.0 / 10.0
  • the ratio of the selection time Tm of Relax (Ce) to the total time is 2.0 / 10.0.
  • the content selection unit 105 calculates these ratios.
  • the content selection unit 105 selects the content group Ld by selecting the content belonging to each category by the calculated number. Specifically, as shown in FIG. 12B, since the number in Crazy (Ca) is 6, the content selection unit 105 has selected 6 content M1d belonging to Crazy (Ca). In the same manner, the content selection unit 105 performs eight contents M2d belonging to Vivid (Cb), 14 contents M3d belonging to Orthodox (Cc), four contents M4d belonging to Dynamic (Cd), and Relax (Ce). Eight contents M5d belonging to are selected.
  • a predetermined number of content can be selected. If it is not divisible when calculating the ratio, it may be rounded, rounded down or rounded up to a natural number. Moreover, you may adjust so that it may become a predetermined number.
  • the user can select the category to be selected and the approximate number of contents in each category by slowly moving his / her finger on the area of the category for which many contents are to be selected. Therefore, it is possible to select content according to the intention from a large amount of content with a simple operation. Further, as in the second embodiment, when no category area is selected for a predetermined time or longer, it may be determined that the selection operation input is continued.
  • GUI image Gic (Fourth embodiment) A GUI image Gic according to the fourth embodiment will be described with reference to FIG. Note that the GUI image Gic can be used in combination with the content selection method of other embodiments.
  • the difference between the GUI image Gic in the present embodiment and the GUI image Gi in the other embodiments is that the GUI image Gic has a hue that gradually changes as it moves in a circular circumferential direction.
  • the GUI image Gic in which the hue gradually changes as shown in FIG. 13 when the category region having a shorter distance in the circumferential direction is used the impression change due to the hue and the impression of the category ( For example, it is possible to associate a change in the tune). In this way, if the impression of the category is expressed in color, words such as Crazy and Vivid may not be displayed.
  • GUI image Gic is circular and the GUI image Gic has a hue that gradually changes as it moves in the circumferential direction of the circle, it is easy to select content with a single operation input such as the locus K1. Since it is possible, it is more preferable.
  • the GUI image Giv in the present embodiment will be described with reference to FIG.
  • the GUI image Giv is divided into a plurality of category regions C (Ca, Cab, Cb,... Cm, Cma, and CMA) as shown by a two-dot chain line in FIG.
  • Each category area C is assigned one or a plurality of categories (two in this embodiment) for classifying a plurality of contents recorded by the content recording unit 3.
  • the category areas to which one category is assigned and the category areas to which two categories are assigned are arranged alternately in a circular circumferential direction. Furthermore, the categories assigned to the adjacent category areas are assigned to the category areas to which the two categories are assigned.
  • the category area Cab is assigned with two categories: a category called Crazy assigned to the previous category area Ca and a category called Vivid assigned to the subsequent (next) category area Cb. It is done.
  • each category area to which two category areas are assigned will be described in the counterclockwise order.
  • Two categories are assigned to the category area Cbc: a category called Vivid assigned to the category area Cb and a category called Orthodox assigned to the category area Cc.
  • the category area Ccd is assigned with two categories, a category called Orthodox assigned to the category area Cc and a category called Dynamic assigned to the category area Cd.
  • the category area Cde is assigned two categories: a category called Dynamic assigned to the category area Cd and a category called Relax assigned to the category area Ce.
  • the category area Cef is assigned with two categories, a category called Relax assigned to the category area Ce and a category called Gentle assigned to the category area Cf.
  • the category area Cfg is assigned with two categories: a category called Gentle assigned to the category area Cf and a category called Simple assigned to the category area Cg.
  • the category area Cgh is assigned with two categories, a simple category assigned to the category area Cg and a silent category assigned to the category area Ch.
  • the category area Chi is assigned with two categories: a category called Silent assigned to the category area Ch and a category called Cool assigned to the category area Ci.
  • the category area Cij is assigned with two categories, a category called Cool assigned to the category area Ci and a category called Urban assigned to the category area Cj.
  • the category area Cjk is assigned two categories, namely the category Urban, which is assigned to the category area Cj, and the category Sync, which is assigned to the category area Ck.
  • the category area Ckl is assigned with two categories, the category “Sync” assigned to the category area Ck and the category “Active” assigned to the category area Cl.
  • the category area Clm is assigned with two categories, namely, Active category assigned to the category area Cl and Powerful category assigned to the category area Cm.
  • the category area Cma is assigned with two categories: a powerful category assigned to the category area Cm and a category called Crazy assigned to the category area Ca.
  • FIG. 15 is a diagram showing a selection category table in the present embodiment.
  • the selection category table in the present embodiment is the selection category information Ct indicating the selected category area, the selected order Or, and the selection time that is the time when each category area is selected.
  • the table is associated with Tm.
  • FIG. 16 shows the content selected by the content selection unit 105.
  • FIG. The content selection unit 105 will be described with respect to an example in which content is selected so that more content belonging to a category having a longer selection time Tm is selected as in the third embodiment.
  • the content selection method described in other embodiments and the like is also applicable. Can be used. Since the difference between the present embodiment and the other embodiments relates to an area to which two categories are assigned, the description will be focused on that portion.
  • the content selection unit 105 selects a content group Le by selecting one content for a selection time Tm of 0.5 seconds.
  • the content selection unit 105 selects four content M12e belonging to Crazy or Vivid. is doing. At this time, it is preferable that the number of contents belonging to Crazy and the number of contents belonging to Vivid are the same, but it is sufficient that at least one content is included, and this also applies to the following description.
  • the content selection unit 105 selects four contents M23e belonging to Vivid or Orthodox. . Since the selection time Tm of Orthodox & Dynamic (Ccd) to which two categories of Orthodox and Dynamic are assigned is 2.0 seconds, the content selection unit 105 has selected four content M34e belonging to Orthodox or Dynamic. Since the selection time Tm of Dynamic & Relax (Cde) to which two categories of Dynamic and Relax are assigned is 2.0 seconds, the content selection unit 105 selects four content M45e belonging to Dynamic or Relax.
  • the playback order be alternated for the content selected based on the category area to which the above two categories are assigned.
  • the four reproduction orders be the order of content belonging to Crazy, content belonging to Vivid, content belonging to Crazy, and content belonging to Vivid.
  • the order of content belonging to Vivid, content belonging to Crazy, content belonging to Vivid, and content belonging to Crazy may be used.
  • the content selection unit 105 has two contents M1e belonging to Crazy (Ca) and the selection time Tm of Vivid (Cb) is 2. Since it is 0 seconds, 4 content M2e belonging to Vivid (Cb), Orthodox (Cc) selection time Tm is 6.0 seconds, so 12 content M3e belonging to Orthodox (Cc), Dynamic (Cd) selection time Tm is Since 1.0 second, two contents M4e belonging to Dynamic (Cd) are selected, and since the selection time Tm of Relax (Ce) is 3.0 seconds, six contents M5e belonging to Relax (Ce) are selected.
  • a category area to which one category is assigned and a category area to which a plurality of category areas are assigned are alternately arranged. Since the categories assigned to the adjacent category areas are assigned, it is possible to select a plurality of contents according to the user's intention from a large amount of contents with a simple operation, and You can change the category.
  • a circular GUI image Giv is used so that a category area to which one category is assigned and a category area to which a plurality of category areas are assigned are alternately arranged in the circumferential direction of the circle.
  • a category area to which one category is assigned and a category area to which a plurality of category areas are assigned may be alternately arranged in a straight line. Even in that case, the category assigned to the adjacent category area is assigned to the category area to which the two category areas are assigned.
  • the content group of the first category (for example, M1e) ⁇ the first category
  • the content group Le in the order of the content group (for example, M12e) including the content of the first category and the content of the second category (for example, M2e) is selected.
  • a content group including the content of the first category and the content of the second category may be selected according to a predetermined rule without providing a category area to which a plurality of categories are assigned.
  • a content group including a predetermined number of contents of the first category and a content of the second category may always be selected, or the number of contents of the first category and the number of the second category may be selected. You may make it select the content group in which the content of a 1st category and the content of a 2nd category are included by the number according to the content number.
  • the content group including the content of the first category and the content of the second category is indicated by a broken line, and the other content group is indicated by a two-dot chain line.
  • the present invention includes a program for causing a computer to realize the functions of the control unit 1 of each embodiment.
  • These programs may be read from a recording medium and loaded into a computer, or may be transmitted via a communication network and loaded into a computer.
  • the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the present invention. For example, you may combine each embodiment. Further, the present invention can be used for various devices such as a music content playback device, a video content playback device, a mobile phone, a mobile music player, a game machine, a navigation device, and a personal computer.
  • the functions of the content selection device may be realized by making a part of the configuration of the content selection device separate and communicating with each other via a network or the like.
  • the present invention can also be applied to text content.
  • the present invention can be applied to contents such as electronic books and news information.
  • the present invention can be applied to information contents related to various articles, financial products, real estate, persons and the like.
  • the present invention can be applied to product recommendation to users in e-commerce and the like. That is, the present invention can also be applied to information content related to products.
  • the number of contents to be selected by the content selection unit 105 may be displayed while the selection operation input is being input or when the selection operation input is completed. By performing such a display, the convenience becomes higher.
  • the content selection device, the content selection method, and the content selection program according to the present invention are useful when selecting content, and in particular, select content according to the user's intention from a plurality of contents. Suitable for cases.

Abstract

 GUI画像生成部(6)は、コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成する。選択有無判断部(101)は、GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する。選択領域特定部(102)は、選択操作入力によって選択された位置に対応する領域を特定する。記憶制御部(104)は、選択領域特定部(102)によって特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部(9)に記憶させる。コンテンツ選択部(105)は、選択カテゴリ情報に基づいて、複数のコンテンツの中から所定のコンテンツを選択する。

Description

コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム
 本発明は、複数のコンテンツの中からユーザの意向に沿ったコンテンツを選択するコンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラムに関する。
 近年、記録媒体の大容量化により、ユーザが所有できるコンテンツデータの数は膨大になってきており、大量のコンテンツの中から所望の複数のコンテンツを選択することが困難になってきている。そのような中、ディスプレイ上の一点を押し続けることで直感的にユーザの好きな量のコンテンツを選択することができる技術が特開2006-113715号公報(特許文献1)に記載されている。
特開2006-113715号公報
 上記特許文献1に記載の技術を用いることによって、直感的にユーザの好きな量のコンテンツを一度に選択することができるが、同じような傾向のコンテンツしか選択することができなかった。
 本発明はこのような問題点に鑑みなされたものであり、よりユーザの意向に沿った複数のコンテンツを、大量のコンテンツの中から簡単な操作で選択することができるコンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係るコンテンツ選択装置は、コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成部と、前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断部と、前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定部と、前記選択領域特定部によって特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御部と、前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択部とを備えることを特徴とする。
 また、本発明に係るコンテンツ選択方法は、コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成ステップと、前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断ステップと、前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定ステップと、前記選択領域特定ステップにおいて特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御ステップと、前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択ステップとを含むことを特徴とする。
 また、本発明に係るコンテンツ選択プログラムは、コンピュータに、コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成ステップと、前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断ステップと、前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定ステップと、前記選択領域特定ステップにおいて特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御ステップと、前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択ステップとを実行させることを特徴とする。
 本発明のコンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラムによれば、よりユーザの意向に沿った複数のコンテンツを、大量のコンテンツの中から簡単な操作で選択することができる。
図1は、本発明の各実施形態のコンテンツ選択装置を示すブロック図である。 図2は、本発明の各実施形態の表示部とタッチパネルとを示す概略図である。 図3は、本発明の第1~第3実施形態におけるGUI画像について説明するための概略図である。 図4は、本発明の第1実施形態におけるコンテンツ選択方法について説明するためのフローチャートである。 図5Aは、本発明の第1実施形態における選択カテゴリテーブルについて説明するための図である。 図5Bは、本発明の第1実施形態における選択カテゴリテーブルについて説明するための図である。 図5Cは、本発明の第1実施形態における選択カテゴリテーブルについて説明するための図である。 図5Dは、本発明の第1実施形態における選択カテゴリテーブルについて説明するための図である。 図5Eは、本発明の第1実施形態における選択カテゴリテーブルについて説明するための図である。 図6は、本発明の第1実施形態における選択時間について説明するための図である。 図7Aは、本発明の第1実施形態におけるコンテンツ選択方法について説明するためのコンテンツリストである。 図7Bは、本発明の第1実施形態におけるコンテンツ選択方法について説明するためのコンテンツリストである。 図8は、本発明の第1~第3実施形態におけるGUI画像の他の例について説明するための概略図である。 図9は、本発明の第2実施形態におけるコンテンツ選択方法について説明するためのフローチャートである。 図10は、本発明の第3実施形態におけるコンテンツ選択方法について説明するためのフローチャートである。 図11Aは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図11Bは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図11Cは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図11Dは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図11Eは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図11Fは、本発明の第3実施形態における選択カテゴリテーブルについて説明するための図である。 図12Aは、本発明の第3実施形態におけるコンテンツ選択方法について説明するためのコンテンツリストである。 図12Bは、本発明の第3実施形態におけるコンテンツ選択方法について説明するためのコンテンツリストである。 図13は、本発明の第4実施形態におけるGUI画像について説明するための概略図である。 図14は、本発明の第5実施形態におけるGUI画像について説明するための概略図である。 図15は、本発明の第5実施形態における選択カテゴリテーブルについて説明するための図である。 図16は、本発明の第5実施形態におけるコンテンツ選択方法について説明するためのコンテンツリストである。
 以下、本発明のコンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラムについて、添付図面を参照して説明する。
(第1実施形態)
 図1に示すブロック図を用いて、第1実施形態のコンテンツ選択装置100について説明する。最初に、コンテンツ記録部3、コンテンツデータ処理部4、音声出力部5、GUI画像生成部6を有する被制御部1aと、制御部1が有する動作制御部106について説明する。制御部1における動作制御部106以外の動作等については、この被制御部1aと動作制御部106の説明の後に随時説明する。なお、一例として、音楽コンテンツ及び映像コンテンツに対応したコンテンツ選択装置100について説明するが、本発明は、音楽コンテンツのみを再生する装置にも適用することができ、その場合は、映像コンテンツのみに係る機能は有していなくてもよい。また、本発明は、映像コンテンツのみを再生する装置にも適用することができ、その場合は、音楽コンテンツのみに係る機能は有していなくてもよい。
 コンテンツ記録部3には、コンテンツのデータが記憶されている。コンテンツデータは、例えば、音声データからなる音楽コンテンツや、映像データ及び音声データからなるミュージックビデオや映画等の映像コンテンツである。映像コンテンツである場合、映像データと音声データとは同期されている。コンテンツ記録部3は、データを出力する機能も有しており、後述する動作制御部106の制御に従い、コンテンツデータに含まれる音声データ及び映像データを出力する。コンテンツ記録部3には例えばハードディスクドライブ(HDD)、フラッシュメモリ等を用いることができ、着脱可能であっても着脱不可能であってもよい。また、コンテンツ記録部3を外部に設けて、コンテンツ選択装置100が、ネットワークを介してコンテンツ記録部3と通信して、コンテンツデータを取得するような構成にしてもよい。
 コンテンツデータ処理部4は、コンテンツ記録部3から出力された音声データを音声信号(例えばアナログ音声信号)に変換して出力する。また、コンテンツデータ処理部4は、コンテンツ記録部3から出力された映像データを映像信号(例えばRGB信号)に変換し、音声信号と同期して出力する。
 音声出力部5は、例えばスピーカ及びアンプを有しており、コンテンツデータ処理部4から出力された音声信号を再生する。
 動作制御部106は、音声出力部5が出力する音声の音量や音質を調整する。また、動作制御部106は、ユーザによる操作入力に応じて、GUI(Graphical User Interface)画像生成部6を制御する。GUI画像生成部6は動作制御部106による制御に基づいてGUI画像を生成し、そのGUI画像を表示するための信号を出力する。なお、動作制御部106を有する制御部1には、CPUやDSP等を用いることができる。複数のCPUやDSPを用いて制御部1を構成してもよいし、単一のCPUやDSPを用いて制御部1を構成してもよい。
 GUI画像生成部6は、映像コンテンツを再生中の場合は、コンテンツデータ処理部4から出力された映像信号に基づく画像と、GUI画像とを重畳し、その重畳した画像信号を表示するための信号を出力する。なお、映像信号再生中において、GUI画像を出力しない場合は、GUI画像生成部6は特に処理を行わず、コンテンツデータ処理部4から出力された映像信号がそのまま出力されることとなる。また、映像信号を再生中でない場合や映像コンテンツを再生する機能を有していない場合は、GUI画像を表示するための信号だけが出力されることとなる。このときGUI画像生成部6は、任意の背景画像と、GUI画像とを重畳し、その重畳した画像信号を表示するための信号を出力するようにしてもよい。なお、GUI画像生成部6は、単に、コンテンツ記録部3や図示しない他の記録部に記録されている画像を読み出したりすることで、GUI画像を生成してもよい。
 表示部7は、GUI画像生成部6から出力された、信号に基づく画像を表示する。表示部7には、例えば、液晶パネルや有機ELパネルを用いることができる。そして、電源2は被電力供給部2aへ電力を供給する。
 操作入力部8には、リモートコントローラや、マウス、タッチパネル等を用いることができ、ユーザから操作入力が入力される。図2に示すように、例えば、操作入力部8にタッチパネルを用いた場合、タッチパネルは、タッチパネルへの操作とGUI画像とを対応させるように、タッチパネルにおける操作入力を検出するための操作面8bと、表示部7における画像を表示する表示面7bとが平行になるように、表示部7に重ねて設置されている。このようにして、タッチパネルへの操作と、GUI画像とを対応させることができる。なお、タッチパネルは、静電容量方式や抵抗膜方式など種々のタッチパネルを用いることができる。
 以下、一例として、操作入力部8にタッチパネルを用いた例を中心に説明するが、適宜、リモートコントローラやマウスを用いた際の補足についても説明する。また、以下の説明においては、音楽コンテンツを例にして説明する。
 また、各実施形態に係る説明において、「選択」とは、リモートコントローラのボタンの押下、マウスへのクリック操作、タッチパネルへのポインティング手段の接触(又は近接)等による、図3に示すような表示画面HG内におけるいずれかの位置の選択を意味するものとする。ポインティング手段とは、タッチパネルを操作するための棒状の指示具や、ユーザの指である。
 例えば、リモートコントローラへの操作に応じた指示画像SGが表示画面HG内の所定の領域内に表示されている状態で、リモートコントローラのボタンへの押下が行われた場合、その所定の領域が選択されたこととなる。また、マウス操作に応じた指示画像SGが表示画面HG内の所定の領域内に表示されている状態で、マウスへのクリック操作が行われた場合、その所定の領域が選択されたこととなる。また、タッチパネルに対応して設けられた表示部7の表示画面HGにおける所定の領域内に対応した、タッチパネル上の所定の位置に、ポインティング手段が接触又は近接し、後述の選択有無判断部101がその接触又は近接を感知した場合、その所定の領域が選択されたこととなる。
 次に、GUI画像生成部6が生成するGUI画像Giについて、図3を用いて説明する。GUI画像Giは、図3に二点鎖線で示すように、複数のカテゴリ領域C(Ca~Cm,CMA)に区分けされている。各カテゴリ領域Cには、コンテンツ記録部3が記録している複数のコンテンツを分類するための一または複数のカテゴリが割り当てられている。各カテゴリ領域Cの境界は、識別可能になっていてもよいし識別不可能でもよい。図3においては説明のために二点鎖線で境界を示している。なお、操作入力部8にタッチパネルを用いる場合は、GUI画像Giの各領域に対応して、タッチパネルの操作面8bも仮想的に区分けされることとなる。なお、タッチパネルを用いた場合、マウスやリモートコントローラを用いたときのような指示画像SGは表示させなくてもよい。また、GUI画像Giを示す実線と、複数のカテゴリ領域Cを示す二点鎖線とが一致していないように図示してあるが、一致するように構成してもよい。
 また、カテゴリとは、例えば、ロック、ポップ、クラシックなどのジャンルや、アーティスト名、アルバム名、発売開始時期等の年代、曲調(音楽的特徴)などのコンテンツを分類するための情報である。コンテンツが映像の場合は、映画、ミュージックビデオ、コメディなどのジャンルや、映像製作者、発表時期等の年代などをカテゴリとして用いることができる。なお、これらのカテゴリは一例であり、他の種々のカテゴリを用いることができる。コンテンツのデータには、これらのカテゴリのいずれに属するかを示すメタデータが含まれており、後述するコンテンツ選択部105は、このメタデータを参照することで、そのカテゴリに属するコンテンツを選択することができる。
 なお、曲調については、公知の種々の方法によって算出したり、楽曲を聴いた人が各曲の印象を割り当てたりしてもよい。なお、曲調を算出する場合、コンテンツ選択装置100によって行ってもよいし、他の装置で行った算出結果を参照してもよい。
 曲調を算出する方法としては、楽曲の音響信号から音響特徴量を生成し、この音響特徴量を使用して印象語を生成する方法を用いることができる。具体的には、まず、特開平6-290574号公報や特開2002-278547号公報等に開示された方法により音響信号から音響特徴量を算出し、次に、学習用の楽曲の集合を用意し、それらの楽曲にCrazyやVivid等の印象語を付与した上で、公知の決定木やベイズルール等を用いて音響特徴量を印象語に変換するルールを作成する。そして、作成した変換ルールを用いて印象語を生成する。なお、決定木やベイズルールはあくまでも一例であって、これらの手法と同等の出力が得られる他の手法を用いて印象語を割り当ててもよい。
 また、音響特徴量を抽出する方法としては、例えば、特開2007-322598号公報に開示されている技術も用いることができる。またこの他に、オーディオ信号の強度、周波数分布、テンポ、ビート強度などを検出して音響特徴量としても良い。更に、オーディオデータを分析してオーディオデータの中で音楽が記録されていると推定できる区間を特定した後、その区間を対象にして音響特徴量を抽出するようにしても良い。
 なお、カテゴリとして曲調を用いた場合は、メタデータを用いることなく、その都度算出してもよい。また、ネットワーク経由で曲調に関する情報を取得するようにしてもよい。また、その他のカテゴリについても、都度、ネットワーク経由でカテゴリ情報を取得するような構成にしもよい。
 図3において、カテゴリ領域Ca~Cmには、一例として、曲調に関するカテゴリが割り当てられている。本実施形態においては、カテゴリ領域Ca~Cmには、それぞれ、Crazy,Vivid,Orthodox,Dynamic,Relax,Gentle,Simple,Silent,Cool,Urban,Sync,Active,Powerfulという曲調に関するカテゴリが割り当てられている。また、カテゴリ領域CMAには、カテゴリ領域Ca~Cmに割り当てられているカテゴリ全てが割り当てられており、このカテゴリ領域CMAが選択されると全てのコンテンツの中からランダムにコンテンツが選択されることとなる。その場合、各カテゴリから均等の数のコンテンツを選択することが好ましいが、この限りではない。また、GUI画像Gi内に割り当てられるカテゴリ領域Cの数は上記の13種類に限らない。
 GUI画像Giは、必ずしも円形である必要はないが、円形にすることで、軌跡K1のような一度の操作入力でコンテンツを選択し易くすることができる。なお、完全な円形でなくてもよく、例えば楕円形等でも一度の操作入力でコンテンツを選択し易くすることができる。本発明における円形とは楕円形等も含むものとする。また、GUI画像Giは、必ずしも、図3に示すような複数のカテゴリ領域Cが円形の周方向に隙間なく隣接した配置にする必要はなく、隙間があるように配置してもよい。しかし、隙間なく隣接して配置することで、さらに、軌跡K1や軌跡K2のような一度の操作入力でコンテンツを選択し易くすることができる。なお、図3のようなカテゴリ領域Cの配置にする場合は、周方向における距離が近いカテゴリ領域ほど類似なカテゴリ領域にすることが好ましい。そうすることで、例えば、徐々に静かな曲に遷移するようにコンテンツを選択したり、古いコンテンツから最近のコンテンツへと徐々に遷移するようにコンテンツを選択したりすることができる。このようにGUI画像Giを円形にすれば、選択時間に基づかないでコンテンツを選択しても、よりユーザの意向に沿った複数のコンテンツを、大量のコンテンツの中から簡単な操作で選択することができる。
 また、前述のカテゴリ領域CMAは必ずしも設けなくてもよいが、このカテゴリ領域CMAを円の中心付近に設けることで、ユーザが軌跡K2のように円の中心付近を通る操作入力を行った場合などに、曲調などが急激に変化することを防ぐことができる。例えば、軌跡K2の場合において、カテゴリ領域CMAがないときは、Crazyに属するコンテンツから、Silentに属するコンテンツへと急激に曲調が変化してしまうが、カテゴリ領域CMAを設ければ、Crazyに属するコンテンツから、Silentに属するコンテンツへと移る途中に、他のカテゴリに属するコンテンツを再生することとなり、自然なコンテンツ再生順序とすることができる。このことは、円の中心を挟んで対向するカテゴリ領域間の曲調が大きく異なるときなどに有効である。
 次に、図3~8を用いて、本実施形態におけるコンテンツ選択方法について説明する。本実施形態におけるコンテンツ選択方法は、時間測定部103によって、GUI画像が表示される表示画面HGにおける所定の範囲内を選択する操作入力である選択操作入力に関する時間を測定し、その選択操作入力に関する時間である選択時間を示す情報に基づいて、複数のコンテンツの中から所定のコンテンツを選択する方法である。
 なお、本実施形態における選択時間とは、特に、ユーザがコンテンツ選択を開始してから、コンテンツ選択を終了するまでの時間である。具体的には、本実施形態においては、カテゴリ領域C内のいずれかの位置の選択が開始してから、カテゴリ領域C内のいずれの位置も選択していない状態になるまでの時間であるものとする。この場合、前述の表示画面HGにおける所定の範囲内とは、カテゴリ領域Cの範囲内である。このように、カテゴリ領域C内の位置に限定すれば、その操作入力がコンテンツ選択に関する操作入力である可能性が非常に高くなるため、よりユーザの意向に沿ったコンテンツを選択することができる。その場合、選択時間とは、カテゴリ領域C内のいずれかの位置が選択された時点から、カテゴリ領域C内のいずれの位置も選択されていない状態になった時点までの時間である。
 なお、選択時間は、ユーザによる表示画面HG内のいずれかの位置の選択が開始してから、その選択が終了するまでの時間であってもよく、このように構成しても本発明の効果は発揮できる。この場合、前述の表示画面HGにおける所定の範囲内とは、表示画面HG全体であり、選択時間とは、表示画面HG内のいずれかの位置が選択された時点から、表示画面HG内のいずれの位置も選択されていない状態になった時点までの時間である。また、選択時間は、カテゴリ領域C内のいずれかの位置の選択が開始してから、表示画面HG内のいずれの位置も選択していない状態になるまでの時間であってもよい。この場合、前述の表示画面HGにおける所定の範囲内とは、カテゴリ領域C内のいずれかの位置の選択が開始する前はカテゴリ領域Cの範囲内であり、カテゴリ領域C内のいずれかの位置の選択が開始した後は表示画面HG全体である。例えば、図8に示すような、GUI画像Gi1~Gi6が各々離れており、GUI画像Gi1~Gi6それぞれに対応する各カテゴリ領域Cj1~Cj6も各々離れているような場合は、選択時間を、ユーザによる表示画面HG内のいずれかの位置の選択が開始してからその選択が終了するまで(途切れるまで)の時間とするか、カテゴリ領域C内のいずれかの位置の選択が開始してから、表示画面HG内のいずれの位置も選択していない状態になるまでの時間とすることが好ましい。また、選択時間は、表示画面HG内のいずれかの位置の選択が開始した時点から、その後、選択している位置がカテゴリ領域C内に移動し、そして、カテゴリ領域C内のいずれの位置も選択していない状態になった時点までの時間であってもよい。この場合、前述の表示画面HGにおける所定の範囲内とは、表示画面HG内のいずれかの位置の選択が開始する前は表示画面HG内全体であり、表示画面HG内のいずれかの位置の選択が開始した後はカテゴリ領域Cの範囲内である。
 以下、図3に示すような軌跡K1の選択操作入力が行われた例を用いて、制御部1によるコンテンツ選択方法の詳細について説明する。なお、軌跡K1の例では、選択操作入力が入力されている状態のまま、Crazyという曲調を示すカテゴリ領域Ca,Vividという曲調を示すカテゴリ領域Cb,Orthodoxという曲調を示すカテゴリ領域Cc,Dynamicという曲調を示すカテゴリ領域Cd,Relaxという曲調を示すカテゴリ領域Ceの5つのカテゴリ領域Cを通っている。
 図4のフローチャートに示すように、コンテンツ選択装置100の電源がオンになったり、所定の操作入力によってコンテンツ選択モードになったりすると、ステップS41にて、選択領域特定部102は、操作入力に応じた信号である操作入力信号に基づいて、選択操作入力によって選択されている領域を特定する。なお、操作入力信号は操作入力部8から入力される。
 そして、選択有無判断部101は、選択操作入力が入力されているか否かを判断する。本実施形態において選択操作入力とは、前述の通り、カテゴリ領域C内のいずれかの位置を選択する操作入力である。よって、選択有無判断部101は、選択領域特定部102によって特定された領域がカテゴリ領域Cであるか否かを判断することで、選択操作入力が入力されているか否かを判断する。このように、選択有無判断部101と選択領域特定部102とは協働して、操作入力に対応した位置を検出する位置検出部107として機能している。
 操作入力部8にタッチパネルを用いた場合は、タッチパネル上のいずれかのカテゴリ領域C内に対応した位置に、ポインティング手段が接触又は近接し、選択有無判断部101が、その接触又は近接による電圧変化等を検出しているとき、選択操作入力が入力されていることとなる。操作入力部8にリモートコントローラを用いた場合は、指示画像SGがいずれかのカテゴリ領域C内に表示されている状態で、リモートコントローラのボタンが押下されているとき、選択操作入力が入力されていることとなる。操作入力部8にマウスを用いた場合は、指示画像SGがいずれかのカテゴリ領域C内に表示されている状態で、マウスへのクリック操作が行われているとき、選択操作入力が入力されていることとなる。なお、「選択時間」を、ユーザによる表示画面HG内のいずれかの位置の選択が開始してから、その選択が終了するまでの時間とした場合、選択有無判断部101は、単に操作入力信号の有無を判断することで、選択操作入力が入力されているか否かを判断するようにしてもよい。
 ステップS41にて、選択有無判断部101によって選択操作入力が入力されていると判断すると(Yes)、次のステップS42にて、時間測定部103は、時間の測定を開始する。図3の軌跡K1の例では、選択されている位置が点SP2に到達した時点から時間測定を開始する。一方、選択操作入力が入力されていない場合(No)、ステップS41を繰り返す。本実施形態においては、始点SP1から点SP2の間の位置が選択されている間はステップS41を繰り返す。
 次のステップS43にて、記憶制御部104は、図5A~図5Eに示す選択カテゴリテーブルを更新する。つまり、選択操作入力によって選択されたカテゴリ領域である選択カテゴリ領域を示す選択カテゴリ情報Ctを記憶部9に記憶させる。例えば、選択操作入力の軌跡K1が点SP2に達すると、カテゴリ領域Caが選択されることになる。よって、記憶制御部104は、このカテゴリ領域Caを示す選択カテゴリ情報Ctを記憶部9に記憶させる。
 ここで、図5Aを用いて、選択カテゴリテーブルについて説明する。選択カテゴリテーブルは、選択されたカテゴリ領域を示す選択カテゴリ情報Ctと、選択された順序Orとが関連付けられたテーブルになっている。図3に示す例では、選択操作入力が入力されている状態のまま、一回の選択操作入力(軌跡K1による選択操作入力)によって複数のカテゴリ領域が選択されるため、その選択された順序を記憶させる。選択されている位置が点SP2に到達した時点では、カテゴリ領域Caを示す選択カテゴリ情報Ctである「Crazy(Ca)」が、その選択された順序である「1」と共に記憶される。なお、「Crazy(Ca)」や「1」という語句は理解を容易にするための語句であり、任意の識別子等を用いても構わない。
 次のステップS44にて、選択領域特定部102は、現在選択中のカテゴリ領域が非選択状態になったか否かを判断する。ステップS44にて、現在選択中のカテゴリ領域が非選択状態になった場合(Yes)、次のステップS45にて、選択有無判断部101は、選択中だったカテゴリ領域以外の他の領域が選択されているか否かを判断する。一方、ステップS44にて、現在選択中のカテゴリ領域が非選択状態になっていない場合(No)、ステップS44を繰り返す。ステップS45にて、他の領域が選択されている場合(Yes)、それまでに選択されていた領域から他の領域へと移動したこととなる。この場合、ステップS43に戻り、記憶制御部104は、移動先のカテゴリ領域を示す選択カテゴリ情報Ctと、そのカテゴリが選択された順序Orとを記憶部9に記憶させる。
 例えば、選択されている領域が、カテゴリ領域Caからカテゴリ領域Cbへと移動したときは、図5Bに示すように、カテゴリ領域Cbを示す選択カテゴリ情報Ctである「Vivid(Cb)」が、その選択された順序Orである「2」と共に記憶される。
 図3に示す軌跡K1の例では、点SP2~点EP2の間においては、ステップS43~S45を繰り返すこととなる。つまり、選択されている位置がカテゴリ領域Cbからカテゴリ領域Ccへと移動したときは、図5Cに示すように、カテゴリ領域Ccを示す選択カテゴリ情報Ctである「Orthodox(Cc)」が、その選択された順序Orである「3」と共に、選択カテゴリテーブルに追加される。選択されている位置がカテゴリ領域Ccからカテゴリ領域Cdへと移動したときは、図5Dに示すように、カテゴリ領域Cdを示す選択カテゴリ情報Ctである「Dynamic(Cd)」が、その選択された順序Orである「4」と共に、選択カテゴリテーブルに追加される。選択されている位置がカテゴリ領域Cdからカテゴリ領域Ceへと移動したときは、図5Eに示すように、カテゴリ領域Ceを示す選択カテゴリ情報Ctである「Relax(Ce)」が、その選択された順序Orである「5」と共に、選択カテゴリテーブルに追加される。
 一方、ステップS45にて、選択中だったカテゴリ領域以外の他の領域が選択されていない場合(No)、いずれのカテゴリ領域も選択されていないこととなるので、次のステップS46にて、選択有無判断部101は、選択操作入力が入力されていないと判断し、その判断を受けて、時間測定部103は、時間の測定を終了する。そして、記憶制御部104は、時間測定部103によって測定した選択時間Ttmを記憶制御部104に記憶させる。本実施形態においては、選択操作入力が点SP2から点EP2に至るまでの時間となる。本実施形態においては、図6に示すように、選択時間Ttmである「1.0s」が記憶される。なお、「1.0s」という語句は理解を容易にするための語句であり、1.0秒であることを示す任意の識別子等を用いても構わない。
 次のステップS47にて、コンテンツ選択部105は、選択カテゴリ情報Ctと、その選択された順序Orと、選択時間Ttmとに基づいて、複数のコンテンツの中から所定のコンテンツを選択する。
 ここで、コンテンツ選択部105によって選択したコンテンツを示す図7A及び図7Bを用いて、本実施形態のコンテンツ選択方法の詳細について説明する。コンテンツ選択部105は、選択時間Ttmが長いほど多くのコンテンツを選択する。図7Aに示すように、コンテンツ選択部105は、選択時間Ttmが1.0sであった場合は例えば5個のコンテンツからなるコンテンツ群Laを選択する。また、図7Bに示すように、コンテンツ選択部105は、選択時間Ttmが2.0sであった場合は例えば10個のコンテンツからなるコンテンツ群Lbを選択する。なお、選択時間Ttmに比例した数のコンテンツを選択してもよいし、そうでなくてもよい。
 また、コンテンツ選択部105は、選択カテゴリ情報Ctが示すカテゴリに属するコンテンツを選択する。図5Eに示す選択カテゴリテーブルの例では、選択カテゴリ情報Ctが示す5つのカテゴリである「Crazy」,「Vivid」,「Orthodox」,「Dynamic」,「Relax」それぞれに属するコンテンツを選択する。図7Aでは、「Crazy」に属するコンテンツM1aを1個、「Vivid」に属するコンテンツM2aを1個、「Orthodox」に属するコンテンツM3aを1個、「Dynamic」に属するコンテンツM4aを1個、「Relax」に属するコンテンツM5aを1個選択している。図7Bでは、「Crazy」に属するコンテンツM1bを2個、「Vivid」に属するコンテンツM2bを2個、「Orthodox」に属するコンテンツM3bを2個、「Dynamic」に属するコンテンツM4bを2個、「Relax」に属するコンテンツM5bを2個選択している。
 また、プレイリストのように順序が既定されたコンテンツ群を選択する場合、コンテンツ選択部105は、選択カテゴリテーブルの順序Orを参照し、順序Orに基づいた順序でコンテンツを選択する。図7A及び図7Bに示すように、順序Orに基づいた順序である、「Crazy」,「Vivid」,「Orthodox」,「Dynamic」,「Relax」の順序でコンテンツを選択する。このように順序を既定してコンテンツを選択することで、ユーザはそれらのコンテンツをその順序で再生することができる。なお、プレイリストではない場合などは、必ずしも順序Orに基づいて選択する必要はなく、その場合は、順序Orを記憶しない構成にしてもよい。以上が本実施形態におけるコンテンツ選択方法の詳細である。
 以上のように、ユーザは、軌跡K1のような操作入力をするだけで、選択したいカテゴリと、コンテンツの大まかな数とを選択することができる。よって、簡単な操作で、大量のコンテンツの中から、意向に沿ったコンテンツを選択することができる。
(第2実施形態)
 図9のフローチャートを用いて、第2実施形態におけるコンテンツ選択方法について説明する。なお、図9のフローチャートにおけるステップS90~S92以外は第1実施形態と同様である。よって、ステップS90~S92以外については説明を省略する。
 ステップS45にて、選択中だったカテゴリ領域以外の他の領域が選択されていない場合(No)、いずれのカテゴリ領域も選択されていないこととなる。本実施形態においては、いずれのカテゴリ領域も選択されていない状態になっても、すぐにコンテンツを選択せず、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いた場合(ステップS90においてYes)に、選択操作が終了したと判断し、コンテンツを選択する。以下、具体的に説明する。
 ステップS45にて、選択中だったカテゴリ領域以外の他の領域が選択されていない場合(No)、次のステップS90にて、選択有無判断部101は、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いたか否かを判断する。この所定時間とは例えば0.5秒程度であるが、これに限定されるわけではない。また、この所定時間は、時間測定部103によって測定される。
 ステップS90にて、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いていない場合(No)、次のステップS91にて、直近まで選択されていたカテゴリ領域が再び選択されたか否かを判断する。直近まで選択されていたカテゴリ領域が再び選択された場合(Yes)、ステップS44に戻る。直近まで選択されていたカテゴリ領域が再び選択されなかった場合(No)、ステップS45に戻り、直近まで選択されていたカテゴリ領域以外の他のカテゴリ領域が選択されたか否かを判断する。
 一方、ステップS90にて、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いていた場合(Yes)、次のステップS92にて、選択有無判断部101は、選択操作入力が終了したと判断し、その判断を受けて、時間測定部103は、選択時間Ttmの測定を終了する。
 そして、次のステップS47にて、コンテンツ選択部105は、選択カテゴリ情報Ctと、その選択された順序Orと、選択時間Ttmとに基づいて、複数のコンテンツの中から所定のコンテンツを選択する。
 いずれのカテゴリ領域も選択されていない状態が所定時間以上続いていない場合(ステップS90においてNo)は、ステップS43,S44,S45,S90,S91に含まれるループを繰り返すこととなる。
 以上が本実施形態におけるコンテンツ選択方法である。本実施形態のコンテンツ選択方法によれば、ユーザが意図せずに選択操作入力を途切れさせてしまっても、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いていない場合は、選択操作入力が続いていると判断するため、より操作性がよくなる。つまり、本実施形態における選択時間とは、複数のカテゴリ領域C内のいずれかの位置が選択された時点から、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いた時点までの時間である。なお、表示画面HG内のいずれかの位置が選択された時点から、表示画面HG内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間を、選択時間としてもよい。また、複数のカテゴリ領域C内のいずれかの位置が選択された時点から、表示画面HG内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間を、選択時間としてもよい。これは図8のように各カテゴリ領域が離れているときに特に有効である。また、表示画面HG内のいずれかの位置の選択が開始した時点から、その後、選択している位置がカテゴリ領域C内に移動し、そして、カテゴリ領域C内のいずれの位置も選択していない状態が所定時間以上続いた時点までの時間を、選択時間としてもよい。
(第3実施形態)
 図10~図12を用いて、第3実施形態におけるコンテンツ選択方法について説明する。なお、コンテンツ選択方法以外は他の実施形態と同様である。よって、コンテンツ選択方法以外については説明を省略する。第1及び第2実施形態におけるコンテンツ選択方法と、本実施形態におけるコンテンツ選択方法とは、選択カテゴリテーブルにおける情報が異なる。特に選択時間Tmが異なる。また、選択カテゴリテーブルにおける情報が異なるため、コンテンツを選択する方法も異なる。
 まず、図10のフローチャートに示すように、コンテンツ選択装置100の電源がオンになったり、所定の操作入力によってコンテンツ選択モードになったりすると、ステップS11にて、選択領域特定部102は、操作入力に応じた信号である操作入力信号に基づいて、選択操作入力によって選択されている領域を特定する。なお、操作入力信号は操作入力部8から入力される。
 そして、選択有無判断部101は、選択操作入力が入力されているか否かを判断する。本実施形態において選択操作入力とは、一例として、カテゴリ領域C内のいずれかの位置を選択する操作入力である。よって、選択有無判断部101は、選択領域特定部102によって特定された領域がカテゴリ領域Cであるか否かを判断することで、選択操作入力が入力されているか否かを判断する。
 ステップS11にて、選択操作入力が入力されたと判断した場合(Yes)、次のステップS12にて、記憶制御部104は、選択カテゴリテーブルを更新する。つまり、選択操作入力によって選択されたカテゴリ領域を示す選択カテゴリ情報Ctを記憶部9に記憶させる。例えば、図3に示すような選択操作入力の軌跡K1が点SP2に達すると、カテゴリ領域Caが選択されることになる。よって、記憶制御部104は、カテゴリ領域Caを示す選択カテゴリ情報Ctを、選択された順序Orと共に記憶部9に記憶させる。
 ここで、図11A~図11Fを用いて、本実施形態における選択カテゴリテーブルについて説明する。本実施形態における選択カテゴリテーブルは、選択されたカテゴリ領域を示す選択カテゴリ情報Ctと、選択された順序Orと、個々のカテゴリ領域が選択された時間である選択時間Tmとが関連付けられたテーブルになっている。軌跡K1が点SP2に到達した時点では、図11Aに示すように、カテゴリ領域Caを示す選択カテゴリ情報Ctである「Crazy(Ca)」が、その選択された順序である「1」と共に記憶される。この時点では、カテゴリ領域Caに関する選択時間Tmは、まだ記憶されない。
 図10のフローチャートに戻り、ステップS11にて、選択操作入力が入力されていない場合(No)、ステップS11を繰り返す。図3に示す軌跡K1の例では、始点SP1から点SP2の間の位置が選択されている間はステップS11を繰り返す。
 次のステップS13にて、時間測定部103は、時間の測定を開始する。図3に示す軌跡K1の例では、選択されている位置が点SP2に到達した時点から時間測定を開始することとなる。
 次のステップS14にて、選択領域特定部102は、現在選択中のカテゴリ領域が非選択状態になったか否かを判断する。ステップS14にて、現在選択中のカテゴリ領域が非選択状態になった場合(Yes)、次のステップS15にて、時間測定部103は、時間の測定を終了し、ステップS16に進む。一方、ステップS14にて、現在選択中のカテゴリ領域が非選択状態になっていない場合(No)、ステップS14を繰り返す。次のステップS16にて、選択有無判断部101は、選択中だったカテゴリ領域以外の他の領域が選択されているか否かを判断する。
 ステップS16にて、他の領域が選択されている場合(Yes)、それまでに選択されていた領域から他の領域へと移動したこととなる。この場合、ステップS12に戻る。そして、ステップS12に戻ると、図11Bに示すように、記憶制御部104は、移動先のカテゴリ領域を示す選択カテゴリ情報Ctである「Vivid(Cb)」を、その選択された順序Orである「2」と共に記憶される。また、図11Bに示すように、カテゴリ領域Caが選択され始めてから、カテゴリ領域Caが非選択状態となるまでの時間を示す選択時間Tmも記憶させる。この時に記憶される時間は、カテゴリ領域Caが選択されていた時間であり、一例として「1.5s」である。
 図3に示す軌跡K1の例では、点SP2~点EP2の間においては、ステップS12~S16を繰り返すこととなる。例えば、選択されている位置がカテゴリ領域Cbからカテゴリ領域Ccへと移動したときは、図11Cに示すように、カテゴリ領域Ccを示す選択カテゴリ情報Ctである「Orthodox(Cc)」が、その選択された順序Orである「3」と共に、選択カテゴリテーブルに追加される。また、図11Cに示すように、カテゴリ領域Cbが選択され始めてから、カテゴリ領域Cbが非選択状態となるまでの時間を示す選択時間Tmも記憶される。この時に記憶される時間は、カテゴリ領域Cbが選択されていた時間であり、一例として「2.0s」である。
 また、選択されている位置がカテゴリ領域Ccからカテゴリ領域Cdへと移動したときは、図11Dに示すように、カテゴリ領域Cdを示す選択カテゴリ情報Ctである「Dynamic(Cd)」が、その選択された順序Orである「4」と共に、選択カテゴリテーブルに追加される。また、図11Dに示すように、カテゴリ領域Ccが選択され始めてから、カテゴリ領域Ccが非選択状態となるまでの時間を示す選択時間Tmも記憶される。この時に記憶される時間は、カテゴリ領域Ccが選択されていた時間であり、一例として「3.5s」である。また、選択されている位置がカテゴリ領域Cdからカテゴリ領域Ceへと移動したときは、図11Eに示すように、カテゴリ領域Ceを示す選択カテゴリ情報Ctである「Relax(Ce)」が、その選択された順序Orである「5」と共に、選択カテゴリテーブルに追加される。また、図11Eに示すように、カテゴリ領域Cdが選択され始めてから、カテゴリ領域Cdが非選択状態となるまでの時間を示す選択時間Tmも記憶される。この時に記憶される時間は、カテゴリ領域Cdが選択されていた時間であり、一例として「1.0s」である。
 一方、ステップS16にて、選択中だったカテゴリ領域以外の他の領域が選択されていない場合(No)、いずれのカテゴリ領域Cも選択されていないこととなるので、次のステップS17にて、選択有無判断部101は、選択操作入力が入力されていないと判断し、その判断を受けて、記憶制御部104は、最後に選択されたカテゴリ領域Ceが選択されていた選択時間Tmを記憶させる。
 図3に示す軌跡K1の例では、点EP2に達すると、図11Fに示すように、記憶制御部104は、カテゴリ領域Ceが選択され始めてから、いずれのカテゴリ領域も選択されていない状態になるまでの時間(カテゴリ領域Ceが非選択状態となるまでの時間)を示す選択時間Tmを記憶させる。この時に記憶される時間は、最後に選択されたカテゴリ領域Ceが選択されていた時間であり、一例として「2.0s」である。なお、同じカテゴリ領域Cを何度か選択した場合は、選択時間Tmを加算すればよい。また、以上の説明で用いた「1.0s」等の語句は理解を容易にするための語句であり、1.0秒等であることを示す任意の識別子等を用いても構わない。
 次のステップS18にて、コンテンツ選択部105は、それぞれの選択カテゴリ情報Ctと、それぞれの選択された順序Orと、それぞれの選択時間Tmとに基づいて、複数のコンテンツの中から所定のコンテンツを選択する。
 ここで、コンテンツ選択部105によって選択したコンテンツからなるコンテンツ群Lcを示す図12Aを用いて、本実施形態のコンテンツ選択方法の詳細について説明する。コンテンツ選択部105は、選択時間Tmが長いカテゴリに属するコンテンツほど多く選択するようコンテンツを選択する。図12Aに示す例では、コンテンツ選択部105は、選択時間Tm0.5秒につき1個のコンテンツを選択している。
 具体的には、Crazy(Ca)の選択時間Tmは1.5秒なので、コンテンツ選択部105は、Crazy(Ca)に属するコンテンツM1cを3個選択している。以下同様に、コンテンツ選択部105は、Vivid(Cb)の選択時間Tmが2.0秒なのでVivid(Cb)に属するコンテンツM2cを4個、Orthodox(Cc)の選択時間Tmが3.5秒なのでOrthodox(Cc)に属するコンテンツM3cを7個、Dynamic(Cd)の選択時間Tmが1.0秒なのでDynamic(Cd)に属するコンテンツM4cを2個、Relax(Ce)の選択時間Tmが2.0秒なのでRelax(Ce)に属するコンテンツM5cを4個、それぞれ選択している。なお、図12Aに示す例では、選択時間Tmに比例した数のコンテンツを選択してもよいし、そうでなくてもよい。
 次に、コンテンツ選択部105によって選択したコンテンツからなるコンテンツ群Ldを示す図12Bを用いて、コンテンツ選択方法の他の例について説明する。選択時間Tmが長いカテゴリに属するコンテンツほど多く選択するようコンテンツを選択するという点では上記のコンテンツ選択方法と同じであるが、本例では、全てのカテゴリにおける選択時間Tmを合計した合計時間に対するそれぞれの選択時間Tmの割合に基づいてコンテンツを選択している。この方法は、選択するコンテンツの総数が予め決まっているときなどに有効である。
 図12Bに示す例では、選択するコンテンツの総数が予め40個と定められている例である。この40個という数はユーザによって指定されたりして決められる。
 まず、コンテンツ選択部105は、全てのカテゴリにおける選択時間Tmを合計した合計時間を計算する。図11Fに示す例では、1.5+2.0+3.5+1.0+2.0=10.0秒である。この合計時間は計算により算出してもよいし、時間測定部103によって測定して求めてもよい。
 次にコンテンツ選択部105は、合計時間に対するそれぞれの選択時間Tmの割合を算出する。合計時間に対するCrazy(Ca)の選択時間Tmの割合は、1.5/10.0である。同様に、合計時間に対するVivid(Cb)の選択時間Tmの割合は2.0/10.0、合計時間に対するOrthodox(Cc)の選択時間Tmの割合は3.5/10.0、合計時間に対するDynamic(Cd)の選択時間Tmの割合は1.0/10.0、合計時間に対するRelax(Ce)の選択時間Tmの割合は2.0/10.0である。コンテンツ選択部105は、これらの割合を算出する。
 次にコンテンツ選択部105は、予め定められたコンテンツの総数に、算出した割合を乗算することで、それぞれのカテゴリにおける、選択するコンテンツ数を算出する。例えば、予め定められたコンテンツの総数が40個である場合、Crazy(Ca)の割合は1.5/10.0なので、Crazy(Ca)における選択するコンテンツ数は、40×(1.5/10.0)=6個である。同様にVivid(Cb)の割合は2.0/10.0なので、Vivid(Cb)における選択するコンテンツ数は、40×(2.0/10.0)=8個となる。Orthodox(Cc)の割合は3.5/10.0なので、Orthodox(Cc)における選択するコンテンツ数は、40×(3.5/10.0)=14個となる。Dynamic(Cd)の割合は1.0/10.0なので、Dynamic(Cd)における選択するコンテンツ数は、40×(1.0/10.0)=4個となる。Relax(Ce)の割合は2.0/10.0なので、Relax(Ce)における選択するコンテンツ数は、40×(2.0/10.0)=8個となる。
 そして、コンテンツ選択部105は、算出した個数だけ、それぞれのカテゴリに属するコンテンツを選択することで、コンテンツ群Ldを選択する。具体的には、図12Bに示すように、Crazy(Ca)における個数は6個なので、コンテンツ選択部105は、Crazy(Ca)に属するコンテンツM1dを6個選択している。以下同様に、コンテンツ選択部105は、Vivid(Cb)に属するコンテンツM2dを8個、Orthodox(Cc)に属するコンテンツM3dを14個、Dynamic(Cd)に属するコンテンツM4dを4個、Relax(Ce)に属するコンテンツM5dを8個、それぞれ選択する。
 本例のようにコンテンツを選択することで、予め定められた個数だけコンテンツを選択することができる。なお、割合を算出する際に割り切れないときは四捨五入したり、切り捨てたり、切り上げたりして自然数となるようにすればよい。また、予め定められた個数となるように調整してもよい。
 以上のように、ユーザは、多くのコンテンツを選択したいカテゴリの領域についてはゆっくり指を動かしたりすることで、選択したいカテゴリと、それぞれのカテゴリにおける大まかなコンテンツ数とを選択することができる。よって、簡単な操作で、大量のコンテンツの中から、意向に沿ったコンテンツを選択することができる。また、第2実施形態のように、いずれのカテゴリ領域も選択されていない状態が所定時間以上続いていない場合は、選択操作入力が続いていると判断するようにしてもよい。
(第4実施形態)
 図13を用いて、第4実施形態におけるGUI画像Gicについて説明する。なお、GUI画像Gicは他の実施形態のコンテンツ選択方法と組み合わせて用いることができる。
 本実施形態におけるGUI画像Gicが他の実施形態におけるGUI画像Giと異なる点は、円形の周方向に移動するに従って、徐々に色相が変化するようなGUI画像Gicとなっている点である。周方向における距離が近いカテゴリ領域ほど類似なカテゴリ領域にした場合に、図13のように、徐々に色相が変化するようなGUI画像Gicを用いると、色相による印象の変化と、カテゴリの印象(例えば曲調)の変化とを対応付けることができる。このように、カテゴリの印象を色で表現すれば、CrazyやVivid等の語句は表示しないようにしてもよい。また、GUI画像Gicを円形とし、円形の周方向に移動するに従って徐々に色相が変化するようなGUI画像Gicとすれば、軌跡K1のような一度の操作入力でコンテンツを選択し易くすることができるため、さらに好ましい。
(第5実施形態)
 図14~図16を用いて、第5実施形態におけるGUI画像Giv及びコンテンツ選択方法について説明する。なお、他の実施形態と異なる部分についてのみ説明し、他の実施形態と共通する構成については説明を省略する。
 まず、本実施形態におけるGUI画像Givについて、図14を用いて説明する。GUI画像Givは、図14に二点鎖線で示すように、複数のカテゴリ領域C(Ca,Cab,Cb,・・・Cm,Cma,及びCMA)に区分けされている。各カテゴリ領域Cには、コンテンツ記録部3が記録している複数のコンテンツを分類するための1つまたは複数(本実施形態では2つ)のカテゴリが割り当てられている。
 具体的には、1つのカテゴリが割り当てられたカテゴリ領域と、2つのカテゴリが割り当てられたカテゴリ領域とが円形の周方向に交互に連なるように配置されている。さらに、2つのカテゴリが割り当てられたカテゴリ領域には、隣接する前後のカテゴリ領域に割り当てられたカテゴリが割り当てられる。図14では、例えば、カテゴリ領域Cabには、前のカテゴリ領域Caに割り当てられているCrazyというカテゴリと、後ろの(次の)カテゴリ領域Cbに割り当てられているVividというカテゴリの2つのカテゴリが割り当てられる。
 以下同様に、反時計回りの順に、2つのカテゴリ領域が割り当てられたカテゴリ領域それぞれについて説明する。カテゴリ領域Cbcには、カテゴリ領域Cbに割り当てられているVividというカテゴリと、カテゴリ領域Ccに割り当てられているOrthodoxというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Ccdには、カテゴリ領域Ccに割り当てられているOrthodoxというカテゴリと、カテゴリ領域Cdに割り当てられているDynamicというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cdeには、カテゴリ領域Cdに割り当てられているDynamicというカテゴリと、カテゴリ領域Ceに割り当てられているRelaxというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cefには、カテゴリ領域Ceに割り当てられているRelaxというカテゴリと、カテゴリ領域Cfに割り当てられているGentleというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cfgには、カテゴリ領域Cfに割り当てられているGentleというカテゴリと、カテゴリ領域Cgに割り当てられているSimpleというカテゴリの2つのカテゴリが割り当てられる。
 また、カテゴリ領域Cghには、カテゴリ領域Cgに割り当てられているSimpleというカテゴリと、カテゴリ領域Chに割り当てられているSilentというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Chiには、カテゴリ領域Chに割り当てられているSilentというカテゴリと、カテゴリ領域Ciに割り当てられているCoolというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cijには、カテゴリ領域Ciに割り当てられているCoolというカテゴリと、カテゴリ領域Cjに割り当てられているUrbanというカテゴリの2つのカテゴリが割り当てられる。
 また、カテゴリ領域Cjkには、カテゴリ領域Cjに割り当てられているUrbanというカテゴリと、カテゴリ領域Ckに割り当てられているSyncというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cklには、カテゴリ領域Ckに割り当てられているSyncというカテゴリと、カテゴリ領域Clに割り当てられているActiveというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Clmには、カテゴリ領域Clに割り当てられているActiveというカテゴリと、カテゴリ領域Cmに割り当てられているPowerfulというカテゴリの2つのカテゴリが割り当てられる。また、カテゴリ領域Cmaには、カテゴリ領域Cmに割り当てられているPowerfulというカテゴリと、カテゴリ領域Caに割り当てられているCrazyというカテゴリの2つのカテゴリが割り当てられる。
 また、カテゴリ領域CMAには、Crazy,Vivid,Orthodox,Dynamic,Relax,Gentle,Simple,Silent,Cool,Urban,Sync,Active,Powerfulというカテゴリが全て割り当てられている。なお、カテゴリ領域CMAは必ずしも設けなくてもよい。また、GUI画像Giv内に割り当てられるカテゴリ領域の数は上記の13種類に限らない。図15は、本実施形態における選択カテゴリテーブルを示す図である。本実施形態における選択カテゴリテーブルは、第3実施形態と同様に、選択されたカテゴリ領域を示す選択カテゴリ情報Ctと、選択された順序Orと、個々のカテゴリ領域が選択された時間である選択時間Tmとが関連付けられたテーブルになっている。
 次に、コンテンツ選択部105によって選択したコンテンツを示す図16を用いて、図14に示す軌跡K1の操作入力が入力された場合における本実施形態のコンテンツ選択方法の詳細について説明する。コンテンツ選択部105は、第3実施形態のように、選択時間Tmが長いカテゴリに属するコンテンツほど多く選択するようコンテンツを選択する例について説明するが、他の実施形態等で説明したコンテンツ選択方法も用いることができる。本実施形態と他の実施形態との違いは、2つのカテゴリが割り当てられた領域に関することであるため、その部分を中心に説明する。なお、一例として、図16では、コンテンツ選択部105は、選択時間Tm0.5秒につき1個のコンテンツを選択して、コンテンツ群Leを選択しているものとする。
 図16に示すように、Crazy及びVividの2つのカテゴリが割り当てられたCrazy&Vivid(Cab)の選択時間Tmは2.0秒なので、コンテンツ選択部105は、Crazy又はVividに属するコンテンツM12eを4個選択している。このとき、Crazyに属するコンテンツ数とVividに属するコンテンツ数とを同じ数にすることが好ましいが、少なくとも1個含まれるようにすればよく、このことは以下の説明でも同様である。
 以下同様に、Vivid及びOrthodoxの2つのカテゴリが割り当てられたVivid&Orthodox(Cbc)の選択時間Tmは2.0秒なので、コンテンツ選択部105は、Vivid又はOrthodoxに属するコンテンツM23eを4個選択している。Orthodox及びDynamicの2つのカテゴリが割り当てられたOrthodox&Dynamic(Ccd)の選択時間Tmは2.0秒なので、コンテンツ選択部105は、Orthodox又はDynamicに属するコンテンツM34eを4個選択している。Dynamic及びRelaxの2つのカテゴリが割り当てられたDynamic&Relax(Cde)の選択時間Tmは2.0秒なので、コンテンツ選択部105は、Dynamic又はRelaxに属するコンテンツM45eを4個選択している。
 なお、上記の2つのカテゴリが割り当てられたカテゴリ領域に基づいて選択したコンテンツについては、再生順序を交互にすることが好ましい。例えばCrazy又はVividに属するコンテンツM12eを4個選択した場合、この4個の再生順序を、Crazyに属するコンテンツ、Vividに属するコンテンツ、Crazyに属するコンテンツ、Vividに属するコンテンツの順序にすることが好ましい。もちろん、Vividに属するコンテンツ、Crazyに属するコンテンツ、Vividに属するコンテンツ、Crazyに属するコンテンツの順序でも構わない。
 なお、その他のカテゴリについて、コンテンツ選択部105は、Crazy(Ca)の選択時間Tmが1.0秒なのでCrazy(Ca)に属するコンテンツM1eを2個、Vivid(Cb)の選択時間Tmが2.0秒なのでVivid(Cb)に属するコンテンツM2eを4個、Orthodox(Cc)の選択時間Tmが6.0秒なのでOrthodox(Cc)に属するコンテンツM3eを12個、Dynamic(Cd)の選択時間Tmが1.0秒なのでDynamic(Cd)に属するコンテンツM4eを2個、Relax(Ce)の選択時間Tmが3.0秒なのでRelax(Ce)に属するコンテンツM5eを6個、それぞれ選択している。
 以上のように、1つのカテゴリが割り当てられたカテゴリ領域と、複数のカテゴリ領域が割り当てられたカテゴリ領域とが交互になるように配置され、さらに、2つのカテゴリ領域が割り当てられたカテゴリ領域には、隣接する前後のカテゴリ領域に割り当てられたカテゴリが割り当てられるようにしているため、ユーザの意向に沿った複数のコンテンツを、大量のコンテンツの中から簡単な操作で選択することができるとともに、緩やかにカテゴリを変化させることができる。
 なお、本実施形態のように、円形のGUI画像Givにして、1つのカテゴリが割り当てられたカテゴリ領域と、複数のカテゴリ領域が割り当てられたカテゴリ領域とが円形の周方向に交互に連なるように配置することが好ましいが、これに限らない。例えば直線状に、1つのカテゴリが割り当てられたカテゴリ領域と、複数のカテゴリ領域が割り当てられたカテゴリ領域とが交互に連なるように配置してもよい。その場合にも、2つのカテゴリ領域が割り当てられたカテゴリ領域には、隣接するカテゴリ領域に割り当てられたカテゴリが割り当てられることとなる。
 本実施形態では、1つのカテゴリが割り当てられたカテゴリ領域と、複数のカテゴリが割り当てられたカテゴリ領域とが交互になるように配置することで、第1のカテゴリのコンテンツ群(例えばM1e)→第1のカテゴリのコンテンツと第2のカテゴリのコンテンツとが含まれるコンテンツ群(例えばM12e)→第2のカテゴリのコンテンツ群(例えばM2e)という順序のコンテンツ群Leを選択した。しかし、複数のカテゴリが割り当てられたカテゴリ領域を設けずに、所定の規則により、第1のカテゴリのコンテンツと第2のカテゴリのコンテンツとが含まれるコンテンツ群を選択するようにしてもよい。例えば、常に所定の数だけ、第1のカテゴリのコンテンツと第2のカテゴリのコンテンツとが含まれるコンテンツ群を選択するようにしてもよいし、第1のカテゴリのコンテンツ数及び第2のカテゴリのコンテンツ数に応じた数だけ、第1のカテゴリのコンテンツと第2のカテゴリのコンテンツとが含まれるコンテンツ群を選択するようにしてもよい。図16に示す例で、第1のカテゴリのコンテンツと第2のカテゴリのコンテンツとが含まれるコンテンツ群は破線で示されており、その他のコンテンツ群は二点鎖線で示されている。
 なお、本発明は各実施形態の制御部1の機能をコンピュータに実現させるためのプログラムを含むものである。これらのプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。
 また、本発明は以上説明した各実施形態に限定されることはなく、本発明の要旨を逸脱しない範囲において種々変更が可能である。例えば、各実施形態を組み合わせてもよい。また、本発明は、音楽コンテンツ再生装置や映像コンテンツ再生装置、携帯電話、携帯音楽プレーヤ、ゲーム機、ナビゲーション装置、パーソナルコンピュータ等の種々の機器に用いることができる。また、コンテンツ選択装置の一部の構成を別体にし、ネットワーク等を介して互いに通信することで、コンテンツ選択装置の機能を実現してもよい。
 なお、コンテンツデータとして、音楽コンテンツや映像コンテンツを例にして説明してきたが、本発明は、テキストコンテンツにも適用可能である。例えば、電子書籍やニュース情報等のコンテンツにも適用可能である。また、様々な物品、金融商品、不動産、人物等に関する情報コンテンツにも適用可能である。さらには、eコマース等における、ユーザへの商品推薦にも適用可能である。つまり商品に係る情報コンテンツにも適用可能である。また、選択操作入力が入力されている途中、又は、選択操作入力が終了したときなどに、コンテンツ選択部105によって選択するコンテンツ数を表示するようにしてもよい。このような表示を行うことで、より利便性が高くなる。
 以上のように、本発明に係るコンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラムは、コンテンツを選択する場合に有用であり、特に、複数のコンテンツの中からユーザの意向に沿ったコンテンツを選択する場合に適している。
 6 GUI画像生成部
 C カテゴリ領域
 101 選択有無判断部
 102 選択領域特定部
 103 時間測定部
 104 記憶制御部
 105 コンテンツ選択部

Claims (25)

  1.  コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成部と、
     前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断部と、
     前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定部と、
     前記選択領域特定部によって特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御部と、
     前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択部と
     を備えることを特徴とするコンテンツ選択装置。
  2.  前記選択操作入力に関する時間である選択時間を測定する時間測定部を備え、
     前記記憶制御部は、前記選択時間を示す情報を記憶部に記憶させ、
     前記コンテンツ選択部は、前記選択カテゴリ情報及び前記選択時間を示す情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択することを特徴とする請求項1記載のコンテンツ選択装置。
  3.  前記記憶制御部は、前記選択カテゴリ情報を前記選択操作入力によって選択された順序と共に記憶させ、
     前記コンテンツ選択部は、前記選択カテゴリ情報によって示されるそれぞれのカテゴリに属するコンテンツを、前記順序に基づいて選択することを特徴とする請求項1記載のコンテンツ選択装置。
  4.  前記コンテンツ選択部は、前記選択時間が長いほど多くのコンテンツを選択することを特徴とする請求項2記載のコンテンツ選択装置。
  5.  前記選択時間とは、前記選択カテゴリ領域それぞれが選択された時間であり、
     前記記憶制御部は、それぞれの前記選択時間を、それぞれの前記選択カテゴリ情報と共に記憶させ、
     前記コンテンツ選択部は、選択時間が長い選択カテゴリ領域ほど多くのコンテンツを選択することを特徴とする請求項2記載のコンテンツ選択装置。
  6.  前記コンテンツ選択部は、それぞれの前記選択時間を合計した時間に対する、それぞれの前記選択時間の割合を算出し、所定の数に前記割合を乗算した値に基づいて、選択時間が長い選択カテゴリ領域ほど多くのコンテンツを選択することを特徴とする請求項5記載のコンテンツ選択装置。
  7.  前記所定の範囲とは前記表示画面全体であり、
     前記選択時間とは、前記表示画面内のいずれかの位置が選択された時点から、前記表示画面内のいずれの位置も選択されていない状態になった時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  8.  前記所定の範囲とは前記表示画面全体であり、
     前記選択時間とは、前記表示画面内のいずれかの位置が選択された時点から、前記表示画面内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  9.  前記所定の範囲とは複数の前記カテゴリ領域であり、
     前記選択時間とは、複数の前記カテゴリ領域内のいずれかの位置が選択された時点から、複数の前記カテゴリ領域の範囲内のいずれの位置も選択されていない状態になった時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  10.  前記所定の範囲とは複数の前記カテゴリ領域であり、
     前記選択時間とは、複数の前記カテゴリ領域内のいずれかの位置が選択された時点から、複数の前記カテゴリ領域の範囲内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  11.  前記選択時間とは、複数の前記カテゴリ領域内のいずれかの位置が選択された時点から、前記表示画面内のいずれの位置も選択されていない状態になった時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  12.  前記選択時間とは、複数の前記カテゴリ領域内のいずれかの位置が選択された時点から、前記表示画面内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  13.  前記選択時間とは、前記表示画面内のいずれかの位置が選択された時点から、選択されている位置が複数の前記カテゴリ領域内のいずれの位置に移動した後に、複数の前記カテゴリ領域内のいずれの位置も選択されていない状態になった時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  14.  前記選択時間とは、前記表示画面内のいずれかの位置が選択された時点から、選択されている位置が複数の前記カテゴリ領域内のいずれの位置に移動した後に、複数の前記カテゴリ領域内のいずれの位置も選択されていない状態が所定時間以上続いた時点までの時間であることを特徴とする請求項2記載のコンテンツ選択装置。
  15.  前記GUI画像生成部は、前記カテゴリ領域が隣接して配置された前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  16.  前記GUI画像生成部は、一のカテゴリが割り当てられた第1のカテゴリ領域と、前記第1のカテゴリ領域に割り当てられたカテゴリとは異なる一のカテゴリが割り当てられた第2のカテゴリ領域と、前記第1のカテゴリ領域に割り当てられたカテゴリ及び前記第2のカテゴリ領域に割り当てられたカテゴリが割り当てられ、前記第1のカテゴリ領域及び前記第2のカテゴリ領域と隣接する第3のカテゴリ領域と、を含む前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  17.  前記GUI画像は円形であり、
     前記GUI画像生成部は、複数のカテゴリ領域が前記円形の周方向に配置されている前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  18.  前記GUI画像は円形であり、
     前記GUI画像生成部は、複数のカテゴリ領域が前記円形の周方向に隣接して配置されている前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  19.  前記GUI画像は円形であり、
     前記GUI画像生成部は、1つのカテゴリが割り当てられたカテゴリ領域と、2つのカテゴリが割り当てられたカテゴリ領域とが前記円形の周方向に交互に連なる前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  20.  2つのカテゴリが割り当てられた前記カテゴリ領域には、前記円形の周方向に隣接する2つのカテゴリ領域に割り当てられた2つのカテゴリが割り当てられていることを特徴とする請求項19記載のコンテンツ選択装置。
  21.  前記GUI画像は円形であり、
     前記円形の中心を含む領域には、前記円形のGUI画像に含まれる全てのカテゴリが割り当てられていることを特徴とする請求項1記載のコンテンツ選択装置。
  22.  前記GUI画像は円形であり、
     前記GUI画像生成部は、前記円形の周方向に移動するに従って、徐々に色相が変化する前記GUI画像を生成することを特徴とする請求項1記載のコンテンツ選択装置。
  23.  前記選択操作入力に関する時間である選択時間を測定する時間測定部を備え、
     前記記憶制御部は、前記選択時間を示す情報を記憶部に記憶させ、
     前記コンテンツ選択部は、前記選択時間を示す情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択することを特徴とする請求項1記載のコンテンツ選択装置。
  24.  コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成ステップと、
     前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断ステップと、
     前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定ステップと、
     前記選択領域特定ステップにおいて特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御ステップと、
     前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択ステップと
     を含むことを特徴とするコンテンツ選択方法。
  25.  コンピュータに、
     コンテンツを分類するためのカテゴリが一又は複数割り当てられた領域であるカテゴリ領域を複数含むGUI画像を生成するGUI画像生成ステップと、
     前記GUI画像が表示される表示画面における所定の範囲内を選択する操作入力である選択操作入力が入力されているか否かを判断する選択有無判断ステップと、
     前記選択操作入力によって選択された位置に対応する領域を特定する選択領域特定ステップと、
     前記選択領域特定ステップにおいて特定された領域である選択カテゴリ領域を示す選択カテゴリ情報を記憶部に記憶させる記憶制御ステップと、
     前記選択カテゴリ情報に基づいて、複数の前記コンテンツの中から所定のコンテンツを選択するコンテンツ選択ステップと
     を実行させることを特徴とするコンテンツ選択プログラム。
PCT/JP2012/078046 2011-11-30 2012-10-30 コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム WO2013080728A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/076,978 US20140068474A1 (en) 2011-11-30 2013-11-11 Content selection apparatus, content selection method, and computer readable storage medium

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2011261543 2011-11-30
JP2011-261543 2011-11-30
JP2011-261542 2011-11-30
JP2011261542 2011-11-30
JP2012191159 2012-08-31
JP2012-191158 2012-08-31
JP2012191158 2012-08-31
JP2012-191159 2012-08-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/076,978 Continuation US20140068474A1 (en) 2011-11-30 2013-11-11 Content selection apparatus, content selection method, and computer readable storage medium

Publications (1)

Publication Number Publication Date
WO2013080728A1 true WO2013080728A1 (ja) 2013-06-06

Family

ID=48535196

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078046 WO2013080728A1 (ja) 2011-11-30 2012-10-30 コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム

Country Status (2)

Country Link
US (1) US20140068474A1 (ja)
WO (1) WO2013080728A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132936A (ja) * 2014-01-10 2015-07-23 株式会社Nttぷらら 情報入力装置、情報入力方法及びコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD830372S1 (en) * 2015-11-10 2018-10-09 Gea Farm Technologies Gmbh Display screen with a graphical user interface for a herd management system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374476A (ja) * 2001-06-18 2002-12-26 Alpine Electronics Inc 情報表示装置
JP2011520174A (ja) * 2008-04-11 2011-07-14 キーラン スタフォード, グラフィカルインタフェースを用いてデータをナビゲートする手段

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549219B2 (en) * 1999-04-09 2003-04-15 International Business Machines Corporation Pie menu graphical user interface
US7685154B2 (en) * 2006-10-13 2010-03-23 Motorola, Inc. Method and system for generating a play tree for selecting and playing media content
JP2008275565A (ja) * 2007-05-07 2008-11-13 Toyota Motor Corp ナビゲーション装置
CN102262465B (zh) * 2010-05-26 2016-10-05 鸿富锦精密工业(深圳)有限公司 具有触摸输入单元的电子装置及其触摸输入方法
WO2012019637A1 (en) * 2010-08-09 2012-02-16 Jadhav, Shubhangi Mahadeo Visual music playlist creation and visual music track exploration
KR101069090B1 (ko) * 2011-03-03 2011-09-30 송석명 조립식 경조사용 쌀 화환
US9204094B2 (en) * 2011-06-28 2015-12-01 Lifesize Communications, Inc. Adjusting volume of a videoconference using touch-based gestures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374476A (ja) * 2001-06-18 2002-12-26 Alpine Electronics Inc 情報表示装置
JP2011520174A (ja) * 2008-04-11 2011-07-14 キーラン スタフォード, グラフィカルインタフェースを用いてデータをナビゲートする手段

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132936A (ja) * 2014-01-10 2015-07-23 株式会社Nttぷらら 情報入力装置、情報入力方法及びコンピュータプログラム

Also Published As

Publication number Publication date
US20140068474A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
US10417278B2 (en) Systems and methods to facilitate media search
US8745513B2 (en) Method and apparatus for use in accessing content
US7805681B2 (en) System and method for generating a thumbnail image for an audiovisual file
US8583665B2 (en) Information processing device, client device, server device, list generation method, list acquisition method, list providing method and program
EP2136305B1 (en) Information processing apparatus, information processing method and information processing program
US7930329B2 (en) System, method and medium browsing media content using meta data
US20130086519A1 (en) Emotional ratings of digital assets and related processing
US10268343B2 (en) Mobile user interface for contextual browsing while playing digital content
JPWO2007066662A1 (ja) コンテンツ検索装置、コンテンツ検索システム、コンテンツ検索システム用サーバ装置、コンテンツ検索方法及びコンピュータプログラム並びに検索機能付きコンテンツ出力装置
JP6123155B2 (ja) 再生装置および再生方法、並びにプログラム
JP2007199775A (ja) 表示装置、表示方法、表示プログラム
US20130339853A1 (en) Systems and Method to Facilitate Media Search Based on Acoustic Attributes
CN110245256A (zh) 媒体内容推送方法、装置及存储介质
WO2013080728A1 (ja) コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム
JP2014063463A (ja) コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム
JP2014063462A (ja) コンテンツ選択装置、コンテンツ選択方法及びコンテンツ選択プログラム
Kusama et al. Abstract picture generation and zooming user interface for intuitive music browsing
WO2013005262A1 (ja) 画像抽出方法、画像抽出装置、画像抽出システム、サーバー、ユーザー端末、通信システムおよびプログラム
Soriano et al. Visualization of music collections based on structural content similarity
JP5706960B2 (ja) 画像配置方法、ブラウズ方法、表示制御装置、サーバー、通信システム、画像配置システムおよびプログラム
JP2007133731A (ja) コンテンツデータ再生装置
TW201110012A (en) Method for generating a playlist
TWM312744U (en) Karaoke device with multifunctional Internet song selection function
Lehtiniemi et al. Evaluating a potentiometer-based graphical user interface for interacting with a music recommendation service
Kardos Playing with Something That Runs: Technology, Improvisation, and Composition in DJ and Laptop Performance

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12853813

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12853813

Country of ref document: EP

Kind code of ref document: A1