WO2018155352A1 - 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム - Google Patents

電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム Download PDF

Info

Publication number
WO2018155352A1
WO2018155352A1 PCT/JP2018/005614 JP2018005614W WO2018155352A1 WO 2018155352 A1 WO2018155352 A1 WO 2018155352A1 JP 2018005614 W JP2018005614 W JP 2018005614W WO 2018155352 A1 WO2018155352 A1 WO 2018155352A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
index
electronic device
video
degree
Prior art date
Application number
PCT/JP2018/005614
Other languages
English (en)
French (fr)
Inventor
旭 谷口
敦宏 辻
幸 裕弘
坂井 剛
羊佑 塩田
浩充 森下
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017190029A external-priority patent/JP2020065098A/ja
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2018155352A1 publication Critical patent/WO2018155352A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Definitions

  • the present invention relates to an electronic device control method, an electronic device, an electronic device control system, and a program.
  • Patent Document 1 Conventionally, there has been disclosed an information processing apparatus that accepts a keyword as a search key for searching for content including video or audio from a user and displays content that matches the keyword (see Patent Document 1).
  • the present invention provides an electronic device or the like that enables more flexible content specification.
  • An electronic device control method is an index associated with content, receives an index range expressed by a continuous value from a user, and an index included in the received range is associated with the index. Content is acquired, and playback of the acquired content is controlled.
  • a recording medium such as a system, an apparatus, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, apparatus, integrated circuit, and computer program. And any combination of recording media.
  • the electronic device control method of the present invention enables more flexible content specification.
  • FIG. 1 is a block diagram illustrating a configuration of a control system including an electronic device according to the first embodiment.
  • FIG. 2 is a perspective view illustrating an example of an appearance of the electronic device according to the first embodiment.
  • FIG. 3 is an explanatory diagram illustrating an example of content reproduced by the electronic device according to the first embodiment.
  • FIG. 4 is an explanatory diagram illustrating an example of metadata according to the first embodiment.
  • FIG. 5 is an explanatory diagram of a table showing an example of association between content data and metadata in the first embodiment.
  • FIG. 6 is a flowchart showing an ambient degree setting process in the control system according to the first embodiment.
  • FIG. 7 is a flowchart showing content reproduction processing in the control system according to the first embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of a control system including an electronic device according to the first embodiment.
  • FIG. 2 is a perspective view illustrating an example of an appearance of the electronic device according to the first embodiment.
  • FIG. 3 is an ex
  • FIG. 8 is an explanatory diagram of a group table showing the relationship between the ambient degree range and the group in the first embodiment.
  • FIG. 9 is a block diagram illustrating a configuration of a server in a modification of the first embodiment.
  • FIG. 10 is a flowchart showing an adjustment process of the ambient degree in the control system in the modification of the first embodiment.
  • FIG. 11 is an explanatory diagram showing a first example of the adjustment result of the ambient degree in the modification of the first embodiment.
  • FIG. 12 is an explanatory diagram illustrating a second example of the adjustment result of the ambient degree in the modification of the first embodiment.
  • FIG. 13 is a block diagram illustrating a configuration of a control system including the electronic device according to the second embodiment.
  • FIG. 14 is a flowchart illustrating a method for controlling an electronic device according to the second embodiment.
  • Patent Document 1 Conventionally, there has been disclosed an information processing apparatus that accepts a keyword as a search key for searching for content including video or audio from a user and displays content that matches the keyword (see Patent Document 1).
  • Patent Document 1 when content is specified using a search key, the user needs to recall the search key. There is a problem that if the user cannot recall the search key, the content cannot be specified.
  • the conventional content specifying method has a problem that flexibility in specifying the content is low.
  • the information processing apparatus may fail to determine content that reflects the user's intention. If the determination of the content reflecting the user's intention fails, the information processing apparatus needs to perform processing such as specifying the content again, which causes an increase in processing load and power consumption.
  • the present invention provides an electronic device or the like that enables more flexible content specification.
  • the electronic device control method receives an index range associated with content, which is expressed by a continuous value, from the user.
  • the content associated with the index included in the range is acquired, and the reproduction of the acquired content is controlled.
  • the electronic device can designate the content to be reproduced by designating the index associated with the content within the range of the index. At that time, the user need not recall the search key. The user can specify the content to be played back by the electronic device only by specifying the rough value of the index associated with the content within the range. In this way, the electronic device enables more flexible content specification. Also, since flexible content specification is possible, the problem of increase in processing load and power consumption of the electronic device when determination of content reflecting the user's intention fails can be avoided.
  • the index may be an estimated index indicating the degree of attention that the user is directed to the content being played back.
  • the electronic device can specify the content more flexibly by using, as a specific index, an estimated index indicating the degree of attention the user is directed to the content being played back.
  • control method of the electronic device further includes an index using a video index that is an index linked to the video included in the content and an acoustic index that is an index linked to the sound included in the content.
  • the calculated index may be linked to the content in advance.
  • the electronic device calculates the index associated with the content based on the degree of attention that the user points to each of the video and the sound included in the content. Accordingly, it is possible to calculate the content index in consideration of the video and sound included in the content.
  • the index in calculating the index, may be calculated by a weighted average of the video index and the acoustic index, and the weight of the acoustic index in the weighted average may be greater than the weight of the video index.
  • the electronic device calculates an index associated with the content by a weighted average obtained by increasing the weight of the acoustic index of the video index and the acoustic index.
  • a weighted average obtained by increasing the weight of the acoustic index of the video index and the acoustic index.
  • the index in calculating the index, may be calculated by a weighted average of the video index and the acoustic index, and the weight of the video index in the weighted average may be greater than the weight of the acoustic index.
  • the electronic device calculates the index associated with the content by the weighted average obtained by increasing the weight of the video index among the video index and the acoustic index.
  • the index associated with the content the index of the index used for specifying the content is set with respect to the degree of the attention directed by the user by relatively increasing the contribution of the degree of attention directed by the person to the video. It can be an indicator that matches the sense of
  • the index is calculated by a weighted average of the video index and the acoustic index, and the weight of the video index in the weighted average is a display screen on which a video included in the content is displayed.
  • the weight of the video index in the weighted average is a display screen on which a video included in the content is displayed. The larger the size, the larger.
  • the electronic device calculates the index associated with the content by the weighted average obtained by increasing the weight of the video index based on the size of the display screen that displays the content.
  • the size of the display screen that displays the content is large, it is difficult for the user to distract from the video.
  • the larger the size of the display screen the more difficult it is for the user to distract from the video. Therefore, in the index linked to the content, the user directs the index used for specifying the content by making the contribution of the degree of attention directed by the person relative to the video relatively larger as the size of the display screen is larger. It can be used as an index that matches the sense of attention.
  • the electronic device control method may further calculate the video index based on the brightness, saturation, hue, or scene change mode of the video included in the content.
  • the electronic device can calculate the video index by specifically using the brightness, saturation, hue, or scene change mode of the video included in the content.
  • control method of the electronic device may further calculate the acoustic index based on a sound volume, a frequency distribution, or a volume change mode included in the content.
  • the electronic device can calculate the acoustic index by specifically using the volume, frequency distribution, or volume change mode included in the content.
  • the electronic device control method may further present the received range together with the content being played back.
  • the electronic device can allow the user to recognize the index of the content by presenting the index associated with the content along with the content being played back to the user. Then, it is possible to cause the user to make a determination as to whether or not the content that the user wants to present on the electronic device is compatible with the index range designated by the user.
  • video content that is associated with the index included in the accepted range and includes only video out of video and audio and (b) The content that is associated with the index included in the received range, and is an audio content that is a content that includes only the audio of the video and the audio, and in the reproduction control, the acquired video
  • the content and the audio content may be played together.
  • the electronic device when both the video content and the audio content are reproduced, can include both the index of the video content and the audio content to be reproduced within the range specified by the user. . Accordingly, the user can play both the video content and the audio content that are estimated to be given the same degree of attention by the electronic device.
  • the content in the acquisition of the content, may be acquired from a server in which the content is stored in advance, and the index may be further presented when the content is stored in the server in advance.
  • the electronic device can cause the content provider to recognize the index associated with the content by presenting the index when the content is stored in the server in advance.
  • the stored content may be further adjusted and an index calculated for the adjusted content may be presented.
  • the electronic device can make the content provider recognize the adjusted content index after adjusting the content.
  • the content provider recognizes the index of the adjusted content, confirms the result of the adjustment made to the content provided by itself, and determines whether to store it in the server based on the result Can take action.
  • An electronic device is an electronic device that is an index associated with content, and includes a reception unit that receives a range of an index expressed by a continuous value from a user, and the reception unit An acquisition unit that acquires content associated with an index included in the received range, and a reproduction control unit that controls reproduction of the content acquired by the acquisition unit.
  • An electronic device control system is a control system including the above-described electronic device and a server, and the server acquires information indicating the range received by the reception unit. And a providing unit that provides the content associated with the index included in the range indicated in the acquired information to the acquisition unit of the electronic device.
  • the electronic device program according to one embodiment of the present invention is a program for causing a computer to execute the above-described electronic device control method.
  • a recording medium such as a system, an apparatus, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, apparatus, integrated circuit, and computer program.
  • a recording medium such as a system, an apparatus, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, apparatus, integrated circuit, and computer program.
  • it may be realized by any combination of recording media.
  • Embodiment 1 an electronic device that enables more flexible content specification will be described. Specifically, the electronic device or the like according to the present embodiment accepts designation of a range by a user for an index associated with the content, and presents the content associated with the index included in the range, Enables more flexible content specification.
  • FIG. 1 is a block diagram showing a configuration of a control system 1 including an electronic device 10 in the present embodiment.
  • FIG. 2 is a perspective view illustrating an example of the appearance of the electronic device 10 according to the present embodiment.
  • the up-down direction, the left-right direction, and the front-back direction are defined.
  • control system 1 includes an electronic device 10 and a server 30.
  • the electronic device 10 includes an acquisition unit 11, a reproduction control unit 13, an index acquisition unit 14, a display screen 15, a speaker 16, and a reception unit 17.
  • the electronic device 10 can be implemented in a computer including a processor, a memory, a communication interface, and the like, for example. In that case, each function described above can be realized by the processor executing a predetermined computer program using the memory.
  • the acquisition unit 11 is a processing unit that acquires content data and metadata of content from the server 30 by communication.
  • the content data is the data of the content itself, and the metadata is the information including the attribute information of the content.
  • the content data includes video data and audio data.
  • the acquisition unit 11 transmits an acquisition request for acquiring content to the server 30 and acquires content data and metadata of the content provided from the server 30 in response to the acquisition request.
  • the acquisition unit 11 is communicably connected to the server 30 via the network N via a communication interface.
  • the acquisition unit 11 provides the video data of the content acquired from the server 30 to the video processing unit 13A, and provides the acoustic data of the content acquired from the server 30 to the acoustic processing unit 13B.
  • the content acquired by the acquisition unit 11 is content in which an index included in the index range received by the reception unit 17 is associated.
  • the acquisition unit 11 may include a storage unit 12 that acquires one or more contents acquired from the server 30 in advance and temporarily stores them. If one or more contents are stored in the storage unit 12, there is an advantage that the acquisition unit 11 and the providing unit 34 need not always be connected to the network N. This is because the acquisition unit 11 can acquire content from one or more contents stored in the storage unit 12.
  • the playback control unit 13 is a processing unit that controls playback of the content acquired by the acquisition unit 11 from the server 30.
  • the reproduction control unit 13 controls the start and end of reproduction of the content acquired by the acquisition unit 11 from the server 30.
  • control is performed such as reproducing the plurality of acquired contents in a predetermined order.
  • the reproduction control unit 13 includes a video processing unit 13A and an audio processing unit 13B.
  • the video processing unit 13A is a processing unit that acquires video data of content from the acquisition unit 11 and generates data for reproducing the acquired video data. Specifically, when the video data is encoded or encrypted, the video processing unit 13A performs a process of decoding the video data and provides the processed video data to the display screen 15.
  • the acoustic processing unit 13B is a processing unit that acquires the acoustic data of the content from the acquisition unit 11 and generates data for reproducing the acquired acoustic data. Specifically, when the acoustic data is encoded or encrypted, the acoustic processing unit 13B performs a process of decoding the acoustic data and provides the processed acoustic data to the speaker 16.
  • the index acquisition unit 14 is a processing unit that acquires content metadata from the acquisition unit 11 and acquires an index included in the acquired metadata.
  • the index acquisition unit 14 outputs the acquired index to the display screen 15 or the speaker 16.
  • Metadata is created in a predetermined format.
  • the index acquisition unit 14 analyzes the metadata according to the metadata format and acquires the index.
  • the index is an index associated with the content, and is an index expressed by a continuous value.
  • An example of the index is an estimated index that indicates the degree of attention the user is directed to the content being played back. More specifically, the above index is an index having a smaller value as the degree of attention directed to the content being played by the user is larger, or attention to which the user is directed to the content being played back. The greater the degree, the larger the index.
  • the former is also referred to as an ambient level, and the latter is also referred to as a conscious level.
  • the index may include brightness, saturation, hue, or the like, which is an index related to the color of the video included in the content being played back, or a volume or frequency distribution that is an index of sound included in the content being played back Etc. may be included.
  • the ambient degree is an index expressed as a continuous value from 0 to 100.
  • the degree of ambient is 0, it means that the degree of attention estimated to be directed by the user is the largest, and when the degree of ambient is 100, the degree of attention estimated to be directed by the user is the smallest. To do.
  • the display screen 15 is a display screen that displays video data provided from the video processing unit 13A as an image.
  • the display screen 15 may display the ambient degree provided from the index acquisition unit 14 together with the video data.
  • the speaker 16 is a sound output device that outputs sound data provided from the sound processing unit 13B as sound.
  • the speaker 16 may output the ambient degree provided from the index acquisition unit 14 as sound together with the acoustic data.
  • the accepting unit 17 is a processing unit that accepts a range of indices associated with content from a user.
  • the index range received by the receiving unit 17 is, for example, the ambient degree range of content that the user desires the electronic device 10 to reproduce.
  • the reception unit 17 provides the acquired index range to the acquisition unit 11.
  • the receiving unit 17 processes a user interface such as a button that can be operated by the user by pressing or a user interface such as a microphone that receives the user's voice and the user's operation or voice received through the user interface. It can be realized by a processing unit for converting into an index range.
  • the receiving unit 17 may be realized as a remote controller that communicates with the main body part separately from a part (also referred to as a main body part) of the electronic device 10 excluding the receiving unit 17.
  • the electronic device 10 includes a display screen 15 on the front surface.
  • the electronic device 10 includes speakers 16 at two locations on the lower left side and the lower right side.
  • the electronic device 10 reproduces content using the display screen 15 and the speaker 16 and presents it to the user.
  • the appearance of the electronic device 10 illustrated in FIG. 2 is merely an example, and the number of the display screen 15 and the speaker 16, the position or orientation of the display screen 15, or the like is not limited thereto.
  • the server 30 includes a storage unit 31, a storage unit 33, and a providing unit 34.
  • the server 30 can be implemented in a computer including a processor, a memory, a communication interface, and the like, for example. In that case, each function described above can be realized by the processor executing a predetermined computer program using the memory.
  • the storage unit 31 is a processing unit that stores content data of content in the storage unit 33.
  • the storage unit 31 may associate an index, that is, an ambient degree, with the content to be stored and store the content data in the storage unit 33.
  • the storage unit 31 is provided with content data through a storage medium, a user interface, or the like from a content provider who owns the content, for example, and stores the provided content data in the storage unit 33.
  • the storage unit 31 may be provided with the content ambient level along with the content data of the content by the user. In this case, the provided ambient level may be stored in the storage unit 33 together with the content data.
  • the user interface is a keyboard, a mouse, a touch panel display, or the like.
  • the storage unit 31 includes an index calculation unit 32.
  • the index calculation unit 32 is a processing unit that calculates the ambient degree when the ambient degree that is the index is not associated with the content to be stored, and associates the content with the content.
  • the ambient degree associated with the content can be calculated from the video ambient degree that is the ambient degree associated with the video part of the content and the acoustic ambient degree that is the ambient degree associated with the acoustic part of the content.
  • the video ambient degree is an example of a video index.
  • the acoustic ambient degree is an example of an acoustic index.
  • the index calculating unit 32 may calculate the video ambient degree based on, for example, the brightness, saturation or hue of the video of the content, or the scene change mode. More specifically, the calculation is performed as follows.
  • the more ambient colors such as blue or purple, the higher the ambient, and the more warm colors such as red, orange or yellow, the lower the ambient calculate.
  • the index calculation unit 32 may calculate the acoustic ambient degree based on, for example, the sound volume of the content, the frequency distribution of the sound, or the change in volume. More specifically, the calculation is performed as follows.
  • the arbitrary method can be employ
  • an average or a weighted average can be used.
  • the weighted average weight is in the range from 0 to 1 and the video ambient degree weight is ⁇
  • the ambient degree of the content is expressed as (Equation 1) below.
  • Ambient degree of content ⁇ x (Video ambient degree) + (1- ⁇ ) x (Sound ambient degree) (Formula 1)
  • the weighting of the video ambient degree and the sound ambient is determined as follows, for example.
  • the weight of the video ambient degree is set. It is also effective to make it heavier than the weight of the acoustic ambient degree, that is, to make ⁇ larger than 0.5.
  • This threshold value can be about 50 inches or 70 inches in the length of the diagonal line of the display screen 15, for example.
  • may be changed by input from the operator of the control system 1, the content provider, or the user.
  • the operator etc. of the control system 1 can change the weight of a video ambient degree and an acoustic ambient degree flexibly.
  • the storage unit 33 is a storage device in which content data and metadata of content are stored by the storage unit 31.
  • the content data and metadata stored in the storage unit 33 are read by the providing unit 34.
  • the providing unit 34 is a processing unit that provides content data and metadata stored in the storage unit 33 to the electronic device 10 by communication.
  • the content data includes video data and audio data.
  • the providing unit 34 receives a content acquisition request from the acquisition unit 11 of the electronic device 10 and transmits content data and metadata of the content in response to the received acquisition request.
  • the received acquisition request includes a range of the ambient degree
  • the content associated with the ambient degree included in the range is selected and provided to the electronic device 10.
  • the providing unit 34 is communicably connected to the electronic device 10 via the network N by a communication interface.
  • FIG. 3 is an explanatory diagram showing an example of content played back by the electronic device 10 according to the present embodiment. With reference to FIG. 3, content that can be played back by the electronic device 10 and modes of playback thereof will be described.
  • the content 40 reproduced by the electronic device 10 is a video content including a ripple image.
  • the content that can be played back by the electronic device 10 can include various content, but is not necessarily assumed to be watched by the user. That is, it is not necessarily assumed that the content 40 reproduced by the electronic device 10 is content that a user is expected to watch in order to obtain information about news or culture, or to obtain entertainment. Absent. It is assumed that the content reproduced by the electronic device 10 forms a part of the environment, such as a painting on a wall or a part of wallpaper, a floor, or a ceiling.
  • an image 45 related to the ambient degree may be displayed together with the content 40.
  • the image 45 may include at least one of an image 46 indicating the ambient degree of the content 40 and an image 47 indicating the range of the ambient degree received by the receiving unit 17.
  • the image 45 may be always displayed, “display” or “not display” may be switched by a user operation or voice received by the reception unit 17, or a predetermined time after the start of content reproduction It may be displayed only within a predetermined time before or within the playback of the content. In order to prevent the user from paying attention to the degree of ambient, it is preferably set to “not display” by user operation or voice.
  • the user visually recognizes the image 45 together with the content 40 being reproduced. If the user visually recognizes the image 46, the user can recognize the degree of ambient of the content 40 currently being reproduced. Further, if the user visually recognizes the image 47, the user can recognize the range of the ambient degree designated by the user. By recognizing these, for example, the user can instruct the electronic device 10 through the reception unit 17 to change the designated ambient degree to be higher or lower than the current degree.
  • the sound related to the ambient degree may be output by the speaker 16, and the same effect as described above can be obtained.
  • “output sound” or “do not output sound” may be switched by a user operation or sound received by the receiving unit 17, or within a predetermined time after the start of content reproduction. Alternatively, it may be displayed only within a predetermined time before the end of content reproduction. In order to prevent the user from paying attention to the degree of ambient, it is preferable to set “no audio output” by user operation or voice.
  • FIG. 4 is an explanatory diagram showing an example of metadata in the present embodiment.
  • One piece of metadata 50 shown in FIG. 4 exists for one content, and includes information on time, author, degree of ambient, video ambient, or acoustic ambient.
  • the time is information indicating the length of time when the content is played.
  • the author is information indicating the author of the content, and includes information including the author's name and contact information.
  • the ambient degree is an ambient degree associated with the content.
  • the video ambient degree is the ambient degree associated with the video part included in the content.
  • the acoustic ambient degree is an ambient degree associated with an acoustic part included in the content.
  • the ambient degree of content and the like can be set by metadata.
  • FIG. 5 is an explanatory diagram of a correspondence table 55 showing an example of correspondence between content data and metadata in the present embodiment.
  • the correspondence table 55 shown in FIG. 5 is a table showing each of one or more contents and metadata associated with the contents.
  • the first entry of the correspondence table 55 shown in FIG. 5 indicates that the metadata “con1_meta.dat” is associated with the content data “con1.dat”. The same applies to the other entries.
  • the content data and metadata for one content are associated with each other by the correspondence table 55.
  • the ambient degree of the content is associated with the content.
  • FIG. 6 is a flowchart showing an ambient degree setting process in the control system 1 according to the present embodiment.
  • This setting process is, for example, a process performed when the content provider stores content in the storage unit 33 of the server 30 in advance.
  • step S101 the storage unit 31 receives content data of content from the content provider.
  • metadata may be provided together with the content data.
  • the provided metadata may or may not have an ambient degree.
  • step S102 the index calculation unit 32 determines whether or not the ambient degree is associated with the content provided in step S101. In this determination, when metadata including the ambient degree is provided together with the content data provided in step S101, it is determined that the ambient degree is associated with the content. In other cases, for example, when the metadata is not provided or when the provided metadata does not include the ambient degree, it is determined that the ambient degree is not associated with the content. If it is determined that the ambient degree is associated with the content (Yes in step S102), the process proceeds to step S107. If not (No in step S102), the process proceeds to step S103.
  • step S103 the index calculation unit 32 calculates the video ambient degree of the content provided in step S101.
  • step S104 the index calculation unit 32 calculates the acoustic ambient degree of the content provided in step S101.
  • step S105 the index calculation unit 32 calculates the ambient degree of content based on the video ambient degree calculated in step S103 and the acoustic ambient degree calculated in step S104.
  • step S106 the index calculation unit 32 generates metadata 50 describing the video ambient degree, the acoustic ambient degree, and the ambient degree calculated in steps S103 to S105. If the metadata 50 already exists, the metadata 50 is updated by describing the degree of ambient or the like.
  • step S107 the storage unit 31 stores the content data and metadata of the content in the storage unit 33. Further, the correspondence between the stored content data and metadata is registered in the correspondence table 55.
  • the server 30 stores the content in the storage unit 33 in advance, that is, before providing it to the acquisition unit 11.
  • FIG. 7 is a flowchart showing content reproduction processing in the control system 1 according to the present embodiment.
  • the accepting unit 17 accepts the ambient degree range from the user.
  • the range of ambient degrees received is, for example, the range of ambient degrees that the user desires to reproduce by the electronic device 10.
  • the accepting unit 17 accepts the lower limit value and the upper limit value of the ambient degree range to be accepted, for example, 50 to 70 or 70 to 100.
  • the lower limit value and the upper limit value coincide, that is, the ambient degree range indicates only one value.
  • step S202 the acquisition unit 11 includes the information indicating the range accepted in step S201 in the content acquisition request, and transmits the information to the providing unit 34 of the server 30.
  • step S203 the content transmitted by the providing unit 34 of the server 30 is acquired in response to the acquisition request transmitted in step S202.
  • the content to be acquired is content in which the ambient degree included in the ambient degree range received in step S201 is linked.
  • the providing unit 34 acquires information indicating the range included in the received acquisition request, selects the content associated with the ambient included in this range from the storage unit 33, and provides the acquired content to the acquiring unit 11.
  • step S204 the video processing unit 13A and the audio processing unit 13B reproduce the video data and the audio data included in the content data acquired by the acquisition unit 11 in step S202 using the display screen 15 and the speaker 16, respectively.
  • the plurality of contents are reproduced in order.
  • Various orders can be adopted as the order of reproduction. For example, the order determined by the operator of the control system 1 or the content provider may be used, or the order in which the contents are stored in the storage unit 31 may be used. Further, when the content has been acquired and played back in the same or similar range in the past, the playback may be resumed from the point in time when the past playback is finished. Moreover, it is good also as a random order.
  • the electronic device 10 can reproduce the content belonging to the ambient degree range received from the user.
  • the electronic device 10 and the control system 1 enable more flexible content specification.
  • step S201 when the ambient degree range is received from the user, it may be received by a “group” indicating the ambient degree range.
  • the group will be described with reference to FIG.
  • FIG. 8 is an explanatory diagram of the group table 60 showing the relationship between the ambient degree range and the group in the present embodiment.
  • FIG. 8 shows four groups each associated with a range of ambient degrees.
  • group 1 shown in FIG. 8 is a group to which contents having an ambient degree range of 70 to 100 belong, and contents A, B, and E belong to it.
  • Group 2 is a group to which contents having an ambient degree range of 50 to 70 belong, and contents C and Z belong to it. The same applies to the other groups. It should be noted that it can be arbitrarily determined to which of the plurality of groups the content associated with the degree of ambient belonging to the range of ambient degrees of the plurality of groups belongs. For example, in the example shown in FIG. 8, it can be arbitrarily determined whether content having an ambient degree of 70 belongs to group 1 or group 2.
  • the ambient degree ranges may overlap between the groups, and specifically, the ambient degree of group 2 may be set to “50 to 80”.
  • step S201 the receiving unit 17 receives a group ID from the user. Since the group ID and the ambient degree range are associated with each other by the group table 60, the received group ID can be converted into the ambient degree range.
  • step S ⁇ b> 202 the acquisition unit 11 determines that the content belonging to the group ID received from the user, that is, the ambient degree included in the ambient degree range associated by the group table 60 with the group ID received from the user. Get the content that is associated with.
  • the obtaining unit 11 stores the contents C and Z that are contents belonging to the group ID of 2, that is, the ambient degree range 50 to 70, as the server. Receive from 30.
  • the acquiring unit 11 may acquire the video content and the audio content associated with the index included in the accepted ambient degree range. And the reproduction
  • the video content refers to content including only video out of video and audio
  • the audio content refers to content including only audio out of video and audio.
  • statistical information such as the number of times played by the electronic device 10 can be collected for each content held by the server 30. Then, the collected statistical information may be fed back to the content provider. By doing so, there is an advantage that statistical information such as the number of times the content has been played can be provided to the content provider, and it can be used as reference information when generating the content.
  • the index calculation unit 32 may be included in the electronic device 10. Good.
  • the index calculation unit 32 may calculate the index of the acquired content. In this way, it is not necessary to calculate the index in advance before being acquired by the electronic device 10, and it is only necessary to calculate the index only for the content acquired by the electronic device 10. Therefore, there is an advantage that it is possible to reduce the index calculation processing when viewed in the entire control system 1.
  • control system 1 of this modification is different from the server 30 in the first embodiment in the configuration of the server 30A. Parts different from the first embodiment will be described below.
  • symbol is attached
  • FIG. 9 is a block diagram showing the configuration of the server 30A in this modification.
  • the server 30 ⁇ / b> A includes a storage unit 31 ⁇ / b> A, a storage unit 33, a providing unit 34, and a presentation unit 36.
  • the storage unit 31 ⁇ / b> A includes an adjustment unit 35 in addition to the index calculation unit 32.
  • the server 30A can be implemented in a computer including a processor, a memory, a communication interface, and the like. In that case, each function described above can be realized by the processor executing a predetermined computer program using the memory.
  • the adjustment unit 35 is a processing unit that adjusts the content to be stored in the storage unit 33 by the storage unit 31A.
  • the adjustment unit 35 adjusts the content to change the ambient degree of the content. Specifically, the adjustment unit 35 changes the brightness, saturation, or color of the video included in the content, the scene change mode, the sound volume or frequency distribution of the audio included in the content being played back, or the like. Then, adjust the content.
  • the presentation unit 36 is an output device that outputs an index of content to be stored by displaying an image or outputting a sound when the storage unit 31A stores the content.
  • the presentation unit 36 includes a display screen or a speaker.
  • FIG. 10 is a flowchart showing the adjustment process of the ambient degree in the control system 1 in the present modification.
  • 11 and 12 are explanatory diagrams illustrating an example of the adjustment result of the ambient degree in the present modification.
  • the ambient degree adjustment process will be described with reference to FIGS.
  • the process shown in FIG. 10 is a process performed in place of the process of FIG. 6 of the first embodiment.
  • step S301 the storage unit 31A is provided with content data of content from a content provider.
  • metadata may be provided together with the content data as in step S101 of the first embodiment.
  • An index may or may not be set in the metadata.
  • step S302 the index calculation unit 32 determines whether an index is associated with the content provided in step S301. This process is the same as step S102 of the first embodiment. If it is determined that the index is associated with the content (Yes in step S302), the process proceeds to step S304. If not (No in step S302), the process proceeds to step S303.
  • step S303 the index calculation unit 32 calculates the video ambient degree, the acoustic ambient degree, and the ambient degree of the content. This process is the same as the processes in steps S103, S104, and S105 of the first embodiment.
  • step S304 the index calculation unit 32 presents the ambient degree calculated in step S303 by the presentation unit 36.
  • step S305 the adjustment unit 35 adjusts the content. Specifically, the adjustment unit 35 performs image processing or sound processing, such as the brightness, saturation, or color of the video included in the content, the scene change mode, the sound volume included in the content being played back, The content is adjusted by changing the frequency distribution. Thereby, the adjustment part 35 produces
  • the content after the adjustment in step S305 is also referred to as “adjusted content”.
  • the content before the adjustment in step S305 that is, the content provided by the content provider in step S301 is also referred to as “content before adjustment”.
  • FIG. 11 and 12 show contents 40A and 40B, respectively, in which the ambient degree is increased by reducing the brightness of the content 40 shown in FIG.
  • the content 40A has a lower brightness than the content 40
  • the content 40B has a lower brightness than the content 40A. Therefore, as the contents 40, 40A, and 40B progress, the brightness decreases, and the degree of estimation that the user pays attention decreases.
  • the content adjustment in step S305 may be performed only when permitted by the content provider.
  • permission information indicating whether the content provider permits the content adjustment is also accepted, and the content adjustment is performed.
  • the content adjustment is performed only when the permission / refusal information indicating that permission is accepted is accepted.
  • step S306 the index calculation unit 32 calculates the ambient degree of the adjusted content.
  • the contents of this process are the same as in step S304.
  • step S307 the index calculation unit 32 presents the adjusted content and the index calculated in step S306 to the content provider by the presentation unit 36. At this time, together with the content and the degree of ambient, a message for inquiring whether or not to allow the presented content to be stored in the storage unit 33 as content for later playback by the electronic device 10 may be presented. Good.
  • step S308 the index calculation unit 32 acquires permission / rejection information indicating whether or not the content provider allows the content presented in step S307 to be stored in the storage unit 33. This can be acquired as an answer to this message when the presentation unit 36 presents the message in step S307.
  • step S309 the storage unit 31A determines whether or not the permission information acquired in step S308 indicates that the content provider allows the adjusted content to be stored in the storage unit 33. If the content provider indicates that it is permitted, the process proceeds to step S310, and if not, the process proceeds to step S311.
  • step S310 the storage unit 31A stores the content data and metadata of the content before adjustment and the content after adjustment in the storage unit 33.
  • step S311 the storage unit 31A stores the content data and metadata of the content before adjustment in the storage unit 33. At this time, the content data and metadata of the adjusted content are not stored in the storage unit 33.
  • step S310 or S311 When step S310 or S311 is completed, a series of processes shown in FIG.
  • the content data and metadata stored in the storage unit 33 in step S310 or S311 become content that can be acquired and played back by the electronic device 10.
  • a plurality of contents having different degrees of ambient can be generated from one content and reproduced by the electronic device 10. It can be obtained as content. Further, at that time, it is possible to avoid that the content is adjusted against the content provider's intention and that the content is adjusted against the content provider's intention.
  • the electronic device can reproduce by specifying the index associated with the content within the range of the index. You can specify the content to be played. At that time, the user need not recall the search key. The user can specify the content to be played back by the electronic device only by specifying the rough value of the index associated with the content within the range. In this way, the electronic device enables more flexible content specification. Also, since flexible content specification is possible, the problem of increase in processing load and power consumption of the electronic device when determination of content reflecting the user's intention fails can be avoided.
  • the electronic device can specify content more flexibly by using an estimated index indicating the degree of attention the user is directed to the content being played back as a specific index.
  • the electronic device calculates an index associated with the content based on the degree of attention that the user points to each of the video and the sound included in the content. Accordingly, it is possible to calculate the content index in consideration of the video and sound included in the content.
  • the electronic device calculates an index associated with the content by a weighted average obtained by increasing the weight of the acoustic index of the video index and the acoustic index.
  • a weighted average obtained by increasing the weight of the acoustic index of the video index and the acoustic index.
  • the electronic device calculates an index associated with the content by a weighted average obtained by increasing the weight of the video index among the video index and the acoustic index.
  • the index associated with the content the index of the index used for specifying the content is set with respect to the degree of the attention directed by the user by relatively increasing the contribution of the degree of attention directed by the person to the video. It can be an indicator that matches the sense of
  • the electronic device calculates an index associated with the content by a weighted average obtained by increasing the weight of the video index based on the size of the display screen that displays the content.
  • the size of the display screen that displays the content is large, it is difficult for the user to distract from the video.
  • the larger the size of the display screen the more difficult it is for the user to distract from the video. Therefore, in the index linked to the content, the user directs the index used for specifying the content by making the contribution of the degree of attention directed by the person relative to the video relatively larger as the size of the display screen is larger. It can be used as an index that matches the sense of attention.
  • the electronic device can calculate the video index by specifically using the brightness, saturation, hue, or scene change mode of the video included in the content.
  • the electronic device can calculate the acoustic index by specifically using the volume, frequency distribution, or volume change mode included in the content.
  • the electronic device can make the user recognize the content index by presenting the index associated with the content along with the content being played back to the user. Then, it is possible to cause the user to make a determination as to whether or not the content that the user wants to present on the electronic device is compatible with the index range designated by the user.
  • the electronic device when playing back both video content and audio content, can include both the index of the video content and the audio content to be reproduced within the range specified by the user. Accordingly, the user can play both the video content and the audio content that are estimated to be given the same degree of attention by the electronic device.
  • the electronic device can make the content provider recognize the index associated with the content by presenting the index when the content is stored in the server in advance.
  • the electronic device can make the content provider recognize the adjusted content index after adjusting the content.
  • the content provider recognizes the index of the adjusted content, confirms the result of the adjustment made to the content provided by itself, and determines whether to store it in the server based on the result Can take action.
  • FIG. 13 is a block diagram showing a configuration of a control system including the electronic device 70 in the present embodiment.
  • the electronic device 70 includes a reception unit 71, an acquisition unit 72, and a reproduction control unit 73.
  • the accepting unit 71 is an index associated with the content and accepts a range of indices expressed by continuous values from the user.
  • the acquisition unit 72 acquires content associated with an index included in the range received by the reception unit 71.
  • the playback control unit 73 controls the playback of the acquired content.
  • FIG. 14 is a flowchart showing a control method of electronic device 70 in the present embodiment.
  • control method of the electronic device 70 includes steps S1 to S3.
  • step S1 an index range associated with the content and expressed by a continuous value is received from the user.
  • step S2 the content associated with the index included in the accepted range is acquired.
  • step S3 playback of the acquired content is controlled.
  • the electronic device 70 enables more flexible content specification.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the electronic device of each of the above embodiments is a program as follows.
  • this program receives from the user an index range that is associated with content and expressed by continuous values from a user, and acquires content associated with the index included in the received range. Then, the control method of the electronic device for controlling the reproduction of the acquired content is executed.
  • the present invention can be used for electronic devices and control methods that allow more flexible content specification.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

電子機器の制御方法は、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付けるステップ(S1)と、受け付けた範囲に含まれる指標が紐付けられたコンテンツを取得するステップ(S2)と、取得したコンテンツの再生を制御するステップ(S3)とを含む。例えば、ステップ(S1)では、指標は、再生されているコンテンツに対してユーザが向ける注意の度合いを示す推定指標であってもよい。

Description

電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム
 本発明は、電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラムに関する。
 従来、映像又は音声を含むコンテンツの検索のための検索キーとなるキーワードをユーザから受け付け、キーワードに適合するコンテンツを表示する情報処理装置が開示されている(特許文献1参照)。
特開2013-92912号公報
 しかしながら、特許文献1に記載の情報処理装置では、検索キーによるコンテンツの指定をする場合、ユーザが検索キーを想起することを要する。ユーザが検索キーを想起できない場合にはコンテンツを指定することができないという問題がある。このように、従来のコンテンツ指定方法では、コンテンツの指定における柔軟性が低いという問題がある。
 そこで、本発明は、より柔軟なコンテンツの指定を可能とする電子機器等を提供する。
 本発明の一態様に係る電子機器の制御方法は、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付け、受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得し、取得した前記コンテンツの再生を制御する。
 なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の電子機器の制御方法は、より柔軟なコンテンツの指定を可能とする。
図1は、実施の形態1における電子機器を含む制御システムの構成を示すブロック図である。 図2は、実施の形態1における電子機器の外観の一例を示す斜視図である。 図3は、実施の形態1における電子機器が再生するコンテンツの一例を示す説明図である。 図4は、実施の形態1におけるメタデータの一例を示す説明図である。 図5は、実施の形態1におけるコンテンツデータとメタデータとの対応付けの一例を示すテーブルの説明図である。 図6は、実施の形態1における制御システムにおける、アンビエント度の設定処理を示すフロー図である。 図7は、実施の形態1における制御システムにおける、コンテンツの再生処理を示すフロー図である。 図8は、実施の形態1における、アンビエント度の範囲とグループとの関係を示すグループテーブルの説明図である。 図9は、実施の形態1の変形例におけるサーバの構成を示すブロック図である。 図10は、実施の形態1の変形例における、制御システムにおける、アンビエント度の調整処理を示すフロー図である。 図11は、実施の形態1の変形例における、アンビエント度の調整結果の第一例を示す説明図である。 図12は、実施の形態1の変形例における、アンビエント度の調整結果の第二例を示す説明図である。 図13は、実施の形態2における電子機器を含む制御システムの構成を示すブロック図である。 図14は、実施の形態2における電子機器の制御方法を示すフロー図である。
 (本発明の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した、コンテンツの検索技術に関し、以下の問題が生じることを見出した。
 従来、映像又は音声を含むコンテンツの検索のための検索キーとなるキーワードをユーザから受け付け、キーワードに適合するコンテンツを表示する情報処理装置が開示されている(特許文献1参照)。しかしながら、特許文献1に記載の情報処理装置では、検索キーによるコンテンツの指定をする場合、ユーザが検索キーを想起することを要する。ユーザが検索キーを想起できない場合にはコンテンツを指定することができないという問題がある。
 一方、現在のテレビ放送における放送局ごとに編成された番組のグループ、つまり、放送局等の提供者が指定する時刻又は順序で構成されたグループを指定することによってコンテンツを指定することも想定される。しかしながら、ニュース、ドラマ、スポーツ、教養番組、又は、旅番組などの番組の時間及び順序が提供者の都合で編成され、ユーザが所望のタイミングで所望のコンテンツを指定することができないという問題がある。
 このように、従来のコンテンツの指定方法は、コンテンツの指定における柔軟性が低いという問題がある。また、コンテンツの指定における柔軟性が低い場合、情報処理装置は、ユーザの意図を反映したコンテンツの決定に失敗することがある。ユーザの意図を反映したコンテンツの決定に失敗すれば、情報処理装置は、再度のコンテンツの指定などの処理を行う必要が生じ、処理負荷及び消費電力の増大を招くという問題がある。
 そこで、本発明は、より柔軟なコンテンツの指定を可能とする電子機器等を提供する。
 このような問題を解決するために、本発明の一態様に係る電子機器の制御方法は、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付け、受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得し、取得した前記コンテンツの再生を制御する。
 上記態様によれば、電子機器は、コンテンツに紐付けられた指標を、その指標の範囲でもって指定することで、再生させるコンテンツを指定し得る。その際、ユーザは、検索キーを想起する必要はない。ユーザは、コンテンツに紐付けられた指標の大まかな値を、その範囲でもって指定するだけで、電子機器により再生させるコンテンツを指定し得る。このように、電子機器は、より柔軟なコンテンツの指定を可能とする。また、柔軟なコンテンツの指定を可能とするので、ユーザの意図を反映したコンテンツの決定に失敗した場合における電子機器の処理負荷及び消費電力の増大の問題を未然に回避し得る。
 また、従来、音量又は明度などのようにコンテンツに紐付けられた指標についての指定をユーザから受け付け、受け付けた指標に合致する指標を有するコンテンツをユーザに提示することも行われている。しかし、音量又は明度などの指標によるコンテンツの指定は、ピンポイントでの指定であり、ある程度の幅をもったコンテンツの検索には適さないという問題がある。上記態様によれば、音量などの指標をピンポイントで指定する必要もないので、この点でも、電子機器は、より柔軟なコンテンツの指定を可能とする。
 例えば、前記指標は、再生されている前記コンテンツに対してユーザが向ける注意の度合いを示す推定指標であってもよい。
 上記態様によれば、電子機器は、再生されているコンテンツに対してユーザが向ける注意の度合いを示す推定指標を、具体的に指標として用いることによって、より柔軟なコンテンツの指定を可能とする。
 例えば、前記電子機器の制御方法は、さらに、前記コンテンツに含まれる映像に紐付けられる指標である映像指標と、前記コンテンツに含まれる音響に紐付けられる指標である音響指標とを用いて、指標を算出し、算出した前記指標を予め前記コンテンツに紐付けてもよい。
 上記態様によれば、電子機器は、コンテンツに含まれる映像と音響とのそれぞれに対してユーザが向ける注意の度合いに基づいて、コンテンツに紐付けられる指標を算出する。これにより、コンテンツに含まれる映像と音響とを考慮してコンテンツの指標を算出することができる。
 例えば、前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、前記加重平均における前記音響指標の重みが前記映像指標の重みより大きくてもよい。
 上記態様によれば、電子機器は、映像指標と音響指標とのうちの音響指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。一般に人が、電子機器が提示する映像に対して意図的に注意を向けないようにすることは比較的容易であるが、音響に対して意図的に注意を向けないようにするのは容易ではない。つまり、電子機器が提示する音響から意図的に注意を背けることは難しいという特徴がある。そこで、コンテンツに紐付けられる指標において、音響に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 例えば、前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、前記加重平均における前記映像指標の重みが前記音響指標の重みより大きくてもよい。
 上記態様によれば、電子機器は、映像指標と音響指標とのうちの映像指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。一般に、コンテンツを表示する表示画面の寸法が大きいと、ユーザは、映像から注意を背けることが難しい。このような場合に、コンテンツに紐付けられる指標において、映像に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 例えば、前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、前記加重平均における前記映像指標の重みが、前記コンテンツに含まれる映像が表示される表示画面の寸法が大きいほど大きくてもよい。
 上記態様によれば、電子機器は、コンテンツを表示する表示画面の大きさに基づいて映像指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。上記のとおり、コンテンツを表示する表示画面の寸法が大きいと、ユーザは、映像から注意を背けることが難しい。しかも、表示画面の寸法が大きいほど、ユーザが映像から注意を背けることが、より一層難しくなる。そこで、コンテンツに紐付けられる指標において、映像に対して人が向ける注意の度合いの寄与を、表示画面の寸法が大きいほど相対的により大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 例えば、前記電子機器の制御方法は、さらに、前記コンテンツに含まれる映像の明度、彩度、色相、又は、シーンチェンジの態様に基づいて前記映像指標を算出してもよい。
 上記態様によれば、電子機器は、コンテンツに含まれる映像の明度、彩度、色相、又は、シーンチェンジの態様を具体的に用いて、映像指標を算出し得る。
 例えば、前記電子機器の制御方法は、さらに、前記コンテンツに含まれる音響の音量、周波数分布、又は、音量の変化の態様に基づいて前記音響指標を算出してもよい。
 上記態様によれば、電子機器は、コンテンツに含まれる音量、周波数分布、又は、音量の変化の態様を具体的に用いて、音響指標を算出し得る。
 例えば、前記電子機器の制御方法は、さらに、受け付けた前記範囲を、再生されている前記コンテンツとともに提示してもよい。
 上記態様によれば、電子機器は、再生しているコンテンツとともに、当該コンテンツに紐付けられている指標をユーザに提示することで、コンテンツの指標をユーザに認識させることができる。そして、ユーザが電子機器に提示させることを希望するコンテンツと、ユーザが指定した指標の範囲とが適合しているか否かなどについての判断等をユーザにさせることができる。
 例えば、前記コンテンツの取得では、(a)受け付けた前記範囲に含まれる前記指標が紐付けられたコンテンツであって、映像及び音響のうちの映像のみを含むコンテンツである映像コンテンツと、(b)受け付けた前記範囲に含まれる前記指標が紐付けられたコンテンツであって、映像及び音響のうちの音響のみを含むコンテンツである音響コンテンツと、を取得し、前記再生の制御では、取得した前記映像コンテンツと前記音響コンテンツとをともに再生してもよい。
 上記態様によれば、電子機器は、映像コンテンツと音響コンテンツとをともに再生する場合に、再生する映像コンテンツと音響コンテンツとの指標がともに、ユーザが指定した範囲に含まれるものとすることができる。これにより、ユーザは、電子機器により、同じ程度の注意を向けると推定される映像コンテンツと音響コンテンツとをともに再生させることができる。
 例えば、前記コンテンツの取得では、前記コンテンツが予め格納されたサーバから前記コンテンツを取得し、前記サーバに予め前記コンテンツを格納する際には、さらに、前記指標を提示してもよい。
 上記態様によれば、電子機器は、サーバに予めコンテンツを格納する際に指標を提示することで、コンテンツ提供者に対して、コンテンツに紐付けられた指標を認識させることができる。
 例えば、前記サーバに予め前記コンテンツを格納する際には、さらに、格納した前記コンテンツを調整し、調整後のコンテンツについて算出された指標を提示してもよい。
 上記態様によれば、電子機器は、コンテンツの調整をしてから調整後のコンテンツの指標をコンテンツ提供者に認識させることができる。コンテンツ提供者は、調整後のコンテンツの指標を認識することで、自身が提供したコンテンツに対してなされた調整の結果を確認し、その結果に基づいてサーバに格納するかどうかの判断をするなどの行動を行うことができる。
 また、本発明の一態様に係る電子機器は、電子機器であって、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付ける受付部と、前記受付部が受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得する取得部と、前記取得部が取得した前記コンテンツの再生を制御する再生制御部とを備える。
 これにより、上記電子機器の制御方法と同様の効果を奏する。
 また、本発明の一態様に係る電子機器の制御システムは、上記の電子機器と、サーバとを備える制御システムであって、前記サーバは、前記受付部が受け付けた前記範囲を示す情報を取得し、取得した前記情報に示される前記範囲に含まれる指標が紐付けられたコンテンツを、前記電子機器の前記取得部に提供する提供部を備える。
 これにより、上記電子機器の制御方法と同様の効果を奏する。
 また、本発明の一態様に係る電子機器のプログラムは、上記の電子機器の制御方法をコンピュータに実行させるためのプログラムである。
 これにより、上記電子機器の制御方法と同様の効果を奏する。
 なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 本実施の形態において、より柔軟なコンテンツの指定を可能とする電子機器などについて説明する。具体的には、本実施の形態の電子機器等は、コンテンツに紐付けられる指標についてのユーザによる範囲の指定を受け付けて、その範囲に含まれる指標が紐付けられたコンテンツを提示することで、より柔軟なコンテンツの指定を可能とする。
 図1は、本実施の形態における電子機器10を含む制御システム1の構成を示すブロック図である。図2は、本実施の形態における電子機器10の外観の一例を示す斜視図である。なお、電子機器10について、図2に示されるように上下方向、左右方向、及び、前後方向を定義する。
 図1に示されるように、制御システム1は、電子機器10と、サーバ30とを備える。
 電子機器10は、取得部11と、再生制御部13と、指標取得部14と、表示画面15と、スピーカ16と、受付部17とを備える。電子機器10は、例えば、プロセッサ、メモリ、通信インタフェース等を備えるコンピュータに実装され得る。その場合、プロセッサがメモリを用いて所定のコンピュータプログラムを実行することで、上記の各機能が実現され得る。
 取得部11は、サーバ30からコンテンツのコンテンツデータ及びメタデータを通信によって取得する処理部である。コンテンツデータは、コンテンツそのものの内容をデータ化したものであり、メタデータは、コンテンツの属性情報を含む情報をデータ化したものである。コンテンツデータは、映像データと音響データとを含む。取得部11は、例えば、コンテンツを取得するための取得要求をサーバ30に送信し、この取得要求に応じてサーバ30から提供されるコンテンツのコンテンツデータ及びメタデータを取得する。取得部11は、通信インタフェースによりネットワークNを介してサーバ30に通信可能に接続されている。
 取得部11は、サーバ30から取得したコンテンツの映像データを映像処理部13Aに提供し、また、サーバ30から取得したコンテンツの音響データを音響処理部13Bに提供する。取得部11が取得するコンテンツは、受付部17が受け付ける指標の範囲に含まれる指標が紐付けられたコンテンツである。
 なお、取得部11は、サーバ30から取得した1以上のコンテンツを予め取得し、一時的に記憶する記憶部12を備えてもよい。記憶部12に1以上のコンテンツを記憶しておけば、取得部11と提供部34とがネットワークNに常時接続されている必要がなくなる利点がある。取得部11が記憶部12に記憶されている1以上のコンテンツのうちからコンテンツを取得することができるからである。
 再生制御部13は、取得部11がサーバ30から取得したコンテンツの再生を制御する処理部である。再生制御部13は、例えば、取得部11がサーバ30から取得したコンテンツの再生の開始及び終了を制御する。また、取得部11が複数のコンテンツを取得した場合には、取得した複数のコンテンツを所定の順に再生する等の制御をする。再生制御部13は、映像処理部13Aと、音響処理部13Bとを有する。
 映像処理部13Aは、取得部11からコンテンツの映像データを取得し、取得した映像データを再生するためのデータを生成する処理部である。映像処理部13Aは、具体的には、映像データが符号化又は暗号化されている場合には、映像データを復号する処理等を行い、当該処理後の映像データを表示画面15に提供する。
 音響処理部13Bは、取得部11からコンテンツの音響データを取得し、取得した音響データを再生するためのデータを生成する処理部である。音響処理部13Bは、具体的には、音響データが符号化又は暗号化されている場合には、音響データを復号する処理等を行い、当該処理後の音響データをスピーカ16に提供する。
 指標取得部14は、取得部11からコンテンツのメタデータを取得し、取得したメタデータに含まれる指標を取得する処理部である。指標取得部14は、取得した指標を表示画面15又はスピーカ16に出力する。
 メタデータは、予め定められたフォーマットで作成されている。指標取得部14は、メタデータのフォーマットに従ってメタデータを解析して指標を取得する。指標は、コンテンツに紐付けられる指標であって、連続値により表現される指標である。指標の一例は、再生されているコンテンツに対してユーザが向ける注意の度合いを示す推定指標である。より具体的には、上記指標は、再生されているコンテンツに対してユーザが向ける注意の度合いが大きいほど、より小さな値を有する指標、又は、再生されているコンテンツに対してユーザが向ける注意の度合いが大きいほど、より大きな値を有する指標である。ここで、前者をアンビエント度(Ambient level)ともいい、後者をコンシャス度(Conscious level)ともいう。
 なお、指標として、再生されているコンテンツに含まれる映像の色彩に関する指標である明度、彩度若しくは色相などを含んでもよいし、再生されているコンテンツに含まれる音響の指標である音量若しくは周波数分布などを含んでもよい。
 以降では、指標としてアンビエント度を用いて説明するが、コンシャス度、及び、その他の指標を用いても同様の説明が成立する。また、アンビエント度は、0から100までの連続値に表現される指標であるとする。アンビエント度が0である場合、ユーザが向けると推定される注意の度合いが最も大きいことを意味し、アンビエント度が100である場合、ユーザが向けると推定される注意の度合いが最も小さいことを意味する。
 表示画面15は、映像処理部13Aから提供される映像データを画像として表示する表示画面である。また、表示画面15は、指標取得部14から提供されるアンビエント度を、映像データとともに表示してもよい。
 スピーカ16は、音響処理部13Bから提供される音響データを音として出力する音出力装置である。また、スピーカ16は、指標取得部14から提供されるアンビエント度を、音響データとともに音として出力してもよい。
 受付部17は、コンテンツに紐付けられる指標の範囲をユーザから受け付ける処理部である。受付部17が受け付ける指標の範囲は、例えば、ユーザが電子機器10により再生させることを希望するコンテンツのアンビエント度の範囲である。受付部17は、受け付けた指標の範囲を取得部11に提供する。受付部17は、具体的には、ユーザが押下などにより操作可能なボタン、又は、ユーザの音声を受け付けるマイクなどのユーザインタフェースと、ユーザインタフェースにより受け付けたユーザの操作又は音声を情報処理することで指標の範囲に変換する処理部とにより実現され得る。なお、受付部17は、電子機器10のうちの受付部17を除く部分(本体部分ともいう)と分離して、本体部分と無線通信するリモコンとして実現されてもよい。
 電子機器10の外観の一例を図2に示す。電子機器10は、前面に表示画面15を備える。また、電子機器10は、下部左側及び下部右側の2箇所にスピーカ16を備える。電子機器10は、表示画面15及びスピーカ16を用いてコンテンツを再生し、ユーザに提示する。なお、図2に示す電子機器10の外観は、あくまで一例であり、表示画面15及びスピーカ16の個数、又は、配置される位置若しくは向き等はこれに限定されない。
 サーバ30は、格納部31と、記憶部33と、提供部34とを備える。サーバ30は、例えば、プロセッサ、メモリ、通信インタフェース等を備えるコンピュータに実装され得る。その場合、プロセッサがメモリを用いて所定のコンピュータプログラムを実行することで、上記の各機能が実現され得る。
 格納部31は、コンテンツのコンテンツデータを記憶部33に格納する処理部である。格納部31は、記憶部33にコンテンツデータを格納する際に、格納すべきコンテンツに指標つまりアンビエント度を紐付けて記憶部33に格納してもよい。格納部31は、例えば、コンテンツを所持するコンテンツ提供者等から記憶媒体及びユーザインタフェース等を通じてコンテンツデータを提供され、提供されたコンテンツデータを記憶部33に格納する。また、格納部31は、コンテンツのコンテンツデータとともにコンテンツのアンビエント度をユーザから提供されてもよく、その場合、提供されたアンビエント度をコンテンツデータとともに記憶部33に格納してもよい。ここで、ユーザインタフェースとは、キーボード、マウス、タッチパネルディスプレイなどである。
 また、格納部31は、指標算出部32を有する。指標算出部32は、格納すべきコンテンツに指標であるアンビエント度が紐付けられていない場合にアンビエント度を算出して、当該コンテンツに紐付ける処理部である。
 コンテンツに紐付けられるアンビエント度は、コンテンツの映像部分に紐付けられるアンビエント度である映像アンビエント度と、コンテンツの音響部分に紐付けられるアンビエント度である音響アンビエント度と、から算出され得る。なお、映像アンビエント度は、映像指標の一例である。音響アンビエント度は、音響指標の一例である。
 指標算出部32は、例えば、コンテンツの映像の明度、彩度若しくは色相、又は、シーンチェンジの態様に基づいて映像アンビエント度を算出してもよい。より具体的には、以下のように算出する。
 ・コンテンツの映像の明度が高いほど、より低いアンビエント度を算出する。
 ・コンテンツの映像の彩度が高いほど、より低いアンビエント度を算出する。
 ・コンテンツの映像の色彩に基づいて、青又は紫のような寒色の色が多いほど、より高いアンビエントを算出し、赤、橙又は黄のような暖色の色が多いほど、より低いアンビエント度を算出する。
 ・映像のシーンチェンジが多いほど、より低いアンビエント度を算出する。
 ・シーンチェンジの際の映像の切り替えの態様として、一のシーンからその次のシーンへの切り替えの際に、フェードアウト、フェードイン又はクロスフェードのように画像が徐々に切り変わることが多いほど、より高いアンビエント度を算出する。一のシーンからその次のシーンへの切り替えの際に、画像が急に切り替えられることが多いほど、より低いアンビエント度を算出する。
 また、指標算出部32は、例えば、コンテンツの音響の音量、音の周波数分布、又は、音量の変化の態様に基づいて音響アンビエント度を算出してもよい。より具体的には、以下のように算出する。
 ・コンテンツの音響の音量が大きいほど、より低いアンビエント度を算出する。
 ・コンテンツの音響の周波数分布について、高音域(例えば1kHz~20kHz程度)又は低音域(例えば20Hz~200Hz程度)の音が多いほど、より高いアンビエント度を算出し、中音域(例えば200Hz~1kHz程度)が多いほど、より低いアンビエント度を算出する。
 ・音量の変化が急峻であるほど、より高いアンビエント度を算出する。
 なお、映像アンビエント度と音響アンビエント度とからコンテンツのアンビエント度を算出する方法は、任意の方法を採用し得るが、例えば、平均又は加重平均を用いることができる。例えば、加重平均の重みを0から1までの範囲とし、映像アンビエント度の重みをαとすると、コンテンツのアンビエント度は、下記(式1)のように表わされる。
 コンテンツのアンビエント度
  =α×(映像アンビエント度)+(1-α)×(音響アンビエント度)  (式1)
 ここで、映像アンビエント度と音響アンビエントとの重み付けは、例えば、以下のように定められる。
 (1)音響アンビエント度の重みを大きくする場合
 一般に人が、電子機器10等が提示する映像に対して意図的に注意を向けないようにするには、目を瞑る、又は、目若しくは身体の向きを変えること等をすればよく、比較的容易である。一方、人が、電子機器10等が提示する音響に対して意図的に注意を向けないようにするには、耳を塞ぐなどの方法があり得るが、あまり容易ではなく、また仮に耳を塞いだとしても完全にユーザが感ずる音響をなくすことは難しい。従って、ユーザは、コンテンツの映像部分に関しては、映像アンビエント度に無関係に、意図的に注意を背けることができるが、コンテンツの音響部分に関しては、注意の度合いが音響アンビエント度に近いものにならざるを得ない。
 そこで、音響アンビエント度の重みを映像アンビエント度の重みより重くする、つまり、αを0.5より小さい値にすることが有効である。このようにすると、コンテンツに紐付けられるアンビエント度において、音響に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツに紐付けられるアンビエント度の振る舞いを、ユーザが向ける注意の度合いについての感覚に近づけることができる。
 (2)映像アンビエント度の重みを大きくする場合
 人間が、電子機器10が提示する映像に対して注意を向けないようにするのは比較的容易であると述べたが、表示画面15の寸法が大きいと、電子機器10が提示する映像から注意を背けることが難しくなる。
 そこで、コンテンツが表示されると想定される表示画面15の寸法が大きいほど、映像アンビエント度の重みを大きくすることが有効である。
 また、コンテンツが表示されると想定される表示画面15の寸法に閾値を設け、その閾値を超える寸法の表示画面15によってコンテンツが表示されると想定される場合には、映像アンビエント度の重みを、音響アンビエント度の重みより重くする、つまり、αが0.5より大きくすることも有効である。この閾値は、例えば、表示画面15の対角線の長さで50インチ、又は、70インチ程度とすることができる。
 このようにすると、コンテンツに紐付けられる指標において、映像に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツに紐付けられるアンビエント度の振る舞いを、ユーザが向ける注意の度合いについての感覚に近づけることができる。
 なお、αは、制御システム1の運用者、コンテンツの提供者、又は、ユーザによる入力により変動できるようにしてもよい。このようにすることで、制御システム1の運用者等が柔軟に映像アンビエント度と音響アンビエント度との重みを変化させることができる。その結果、ユーザの感覚に適合した、より柔軟なコンテンツの指定が可能となる利点がある。
 記憶部33は、格納部31によりコンテンツのコンテンツデータ及びメタデータが格納される記憶装置である。記憶部33に格納されたコンテンツデータ及びメタデータは、提供部34によって読み出される。
 提供部34は、記憶部33に格納されたコンテンツデータ及びメタデータを通信によって電子機器10に提供する処理部である。コンテンツデータは、映像データと音響データとを含む。例えば、提供部34は、電子機器10の取得部11からコンテンツの取得要求を受信し、受信した取得要求に応じてコンテンツのコンテンツデータ及びメタデータを送信する。受信した取得要求にアンビエント度の範囲が含まれている場合には、その範囲に含まれるアンビエント度が紐付けられたコンテンツを選択して電子機器10に提供する。提供部34は、通信インタフェースによりネットワークNを介して電子機器10に通信可能に接続されている。
 図3は、本実施の形態における電子機器10が再生するコンテンツの一例を示す説明図である。図3を参照しながら、電子機器10により再生され得るコンテンツと、その再生の態様について説明する。
 図3に示される、電子機器10により再生されるコンテンツ40は、波紋の映像を含む映像コンテンツである。電子機器10により再生され得るコンテンツにはさまざまなコンテンツが有り得るが、ユーザによって注視されることは必ずしも想定されていない。すなわち、電子機器10により再生されるコンテンツ40は、ユーザが、ニュース又は教養等に関する情報を取得したり、娯楽を得たりするために注視することが想定されるコンテンツであることは必ずしも想定されていない。電子機器10により再生されるコンテンツは、壁に飾られた絵画、又は、壁紙、床若しくは天井の一部のように、環境の一部を形成することが想定される。
 また、電子機器10の表示画面15によりコンテンツ40が再生されるときには、コンテンツ40とともに、アンビエント度に関する画像45が表示されてもよい。画像45は、コンテンツ40のアンビエント度を示す画像46、及び、受付部17により受け付けたアンビエント度の範囲を示す画像47の少なくとも一方を含んでいてもよい。なお、画像45は、常に表示されてもよいし、受付部17が受け付けるユーザの操作又は音声により「表示する」又は「表示しない」が切り替えられてもよいし、コンテンツの再生開始後の所定時間内又はコンテンツの再生終了前の所定時間内だけ表示されるようにしてもよい。アンビエント度に関してユーザに注意を向けさせないためには、ユーザの操作又は音声により「表示しない」に設定されるのが好ましい。
 コンテンツ40とともに画像45が表示されることで、ユーザは、再生されているコンテンツ40とともに画像45を視認する。ユーザは、画像46を視認すれば、現在再生されているコンテンツ40のアンビエント度を認識することができる。また、ユーザは、画像47を視認すれば、自身が指定しているアンビエント度の範囲を認識することができる。これらを認識することで、ユーザは、例えば、指定しているアンビエント度を現在より高く又は低く変更することを受付部17を通じて電子機器10に指示することができる。
 なお、アンビエント度に関する画像45を提示することに代えて、又は、ともに、アンビエント度に関する音声をスピーカ16により出力してもよく、上記と同様の効果が得られる。なお、アンビエント度に関する音声を出力する場合、受付部17が受け付けるユーザの操作又は音声により「音声出力する」又は「音声出力しない」が切り替えられてもよいし、コンテンツの再生開始後の所定時間内又はコンテンツの再生終了前の所定時間内だけ表示されるようにしてもよい。アンビエント度に関してユーザに注意を向けさせないためには、ユーザの操作又は音声により「音声出力しない」に設定されるのが好ましい。
 図4は、本実施の形態におけるメタデータの一例を示す説明図である。図4に示されるメタデータ50は、1つのコンテンツに対して1つ存在するものであり、時間、作者、アンビエント度、映像アンビエント度、又は、音響アンビエント度の各情報を含む。
 時間は、当該コンテンツが再生される際の時間長を示す情報である。
 作者は、当該コンテンツの作者を示す情報であり、作者の氏名、連絡先を示す情報などを含む情報である。
 アンビエント度は、当該コンテンツに紐付けられるアンビエント度である。
 映像アンビエント度は、当該コンテンツに含まれる映像部分に紐付けられるアンビエント度である。
 音響アンビエント度は、当該コンテンツに含まれる音響部分に紐付けられるアンビエント度である。
 このように、コンテンツのアンビエント度等は、メタデータによって設定され得る。
 図5は、本実施の形態におけるコンテンツデータとメタデータとの対応付けの一例を示す対応テーブル55の説明図である。図5に示される対応テーブル55は、1以上のコンテンツのそれぞれと、当該コンテンツに対応付けられるメタデータとを示すテーブルである。
 例えば、図5に示される対応テーブル55の1つ目のエントリは、コンテンツデータ「con1.dat」にメタデータ「con1_meta.dat」が対応付けられていることを示している。他のエントリについても同様である。
 このように、対応テーブル55によって、一のコンテンツについてのコンテンツデータとメタデータとが対応付けられている。これにより、コンテンツに当該コンテンツのアンビエント度が紐付けられている。
 図6は、本実施の形態における制御システム1における、アンビエント度の設定処理を示すフロー図である。この設定処理は、例えば、コンテンツ提供者がサーバ30の記憶部33に予めコンテンツを格納する際に行われる処理である。
 ステップS101において、格納部31は、コンテンツ提供者から、コンテンツのコンテンツデータの提供を受ける。このとき、コンテンツデータとともにメタデータが提供されてもよい。提供されるメタデータには、アンビエント度が設定されていてもよいし、されていなくてもよい。
 ステップS102において、指標算出部32は、ステップS101で提供されたコンテンツにアンビエント度が紐付けられているか否かを判定する。この判定では、ステップS101で提供されたコンテンツデータとともに、アンビエント度を含むメタデータが提供された場合に、コンテンツにアンビエント度が紐付けられていると判定する。それ以外の場合、例えば、メタデータが提供されない場合、又は、提供されたメタデータにアンビエント度が含まれていない場合には、コンテンツにアンビエント度が紐付けられていないと判定する。コンテンツにアンビエント度が紐付けられていると判定した場合(ステップS102でYes)には、ステップS107に進み、そうでない場合(ステップS102でNo)には、ステップS103に進む。
 ステップS103において、指標算出部32は、ステップS101で提供されたコンテンツの映像アンビエント度を算出する。
 ステップS104において、指標算出部32は、ステップS101で提供されたコンテンツの音響アンビエント度を算出する。
 ステップS105において、指標算出部32は、ステップS103で算出された映像アンビエント度と、ステップS104で算出された音響アンビエント度とに基づいて、コンテンツのアンビエント度を算出する。
 ステップS106において、指標算出部32は、ステップS103~S105で算出した映像アンビエント度、音響アンビエント度、及びアンビエント度を記載したメタデータ50を生成する。なお、既にメタデータ50が存在している場合には、上記アンビエント度等を記載することでメタデータ50を更新する。
 ステップS107において、格納部31は、コンテンツのコンテンツデータ及びメタデータを記憶部33に格納する。また、格納したコンテンツデータとメタデータとの対応付けを、対応テーブル55に登録する。
 以上の一連の処理により、サーバ30は、予め、つまり、取得部11に提供する前にコンテンツを記憶部33に記憶させる。
 図7は、本実施の形態における制御システム1における、コンテンツの再生処理を示すフロー図である。
 ステップS201において、受付部17は、ユーザからアンビエント度の範囲を受け付ける。受け付けるアンビエント度の範囲は、例えば、電子機器10によって再生することをユーザが希望するアンビエント度の範囲である。受付部17は、受け付けるアンビエント度の範囲の下限値及び上限値を受け付けることで、例えば50~70又は70~100というようにその範囲を受け付ける。ここで、下限値と上限値とが一致すること、つまり、アンビエント度の範囲が一の値のみを指すことは想定されていない。
 ステップS202において、取得部11は、コンテンツの取得要求の中に、ステップS201で受け付けた範囲を示す情報を含めて、サーバ30の提供部34に送信する。
 ステップS203において、ステップS202で送信した取得要求に応じてサーバ30の提供部34が送信したコンテンツを取得する。取得するコンテンツは、ステップS201で受け付けたアンビエント度の範囲に含まれるアンビエント度が紐付けられたコンテンツである。このとき、提供部34は、受信した取得要求に含まれる範囲を示す情報を取得し、この範囲に含まれるアンビエントが紐付けられたコンテンツを記憶部33から選択して取得部11に提供する。
 ステップS204において、映像処理部13A及び音響処理部13Bは、それぞれ、ステップS202で取得部11が取得したコンテンツデータに含まれる映像データ及び音響データを、表示画面15及びスピーカ16により再生する。
 なお、取得要求に含まれる範囲に含まれるアンビエント度が紐付けられたコンテンツが複数ある場合には、複数のコンテンツを順番に再生する。再生する順序は、さまざまな順序を採用し得る。例えば、制御システム1の運用者又はコンテンツの提供者などにより定められた順序としてもよいし、コンテンツが格納部31に格納された時間の順序としてもよい。また、過去の同一又は類似の範囲でコンテンツを取得及び再生したことがある場合には、その過去の再生が終了した時点から再生を再開してもよい。また、ランダムな順序としてもよい。
 図7に示される一連の処理により、電子機器10は、ユーザから受け付けたアンビエント度の範囲に属するコンテンツを再生することができる。このように、電子機器10及び制御システム1は、より柔軟なコンテンツの指定を可能とする。
 なお、上記ステップS201において、ユーザからアンビエント度の範囲を受け付ける際には、アンビエント度の範囲を示す「グループ」によって受け付けてもよい。グループについて図8を参照しながら説明する。
 図8は、本実施の形態における、アンビエント度の範囲とグループとの関係を示すグループテーブル60の説明図である。図8には、それぞれがアンビエント度の範囲に対応付けられた4つのグループが示されている。
 例えば、図8に示されるグループ1は、アンビエント度の範囲が70~100であるコンテンツが属するグループであり、コンテンツA、B及びEが属している。また、グループ2は、アンビエント度の範囲が50~70であるコンテンツが属するグループであり、コンテンツC及びZが属している。他のグループについても同様である。なお、複数のグループのアンビエント度の範囲に属するアンビエント度が紐付けられたコンテンツが、その複数のグループのどちらに属するか等は、任意に定められ得る。例えば、図8に示される例では、アンビエント度が70であるコンテンツがグループ1とグループ2とのどちらに属するかは任意に定められ得る。具体的には、アンビエント度が高い方のグループであるグループ1に属するようにしてもよいし、アンビエント度が低い方のグループであるグループ2に属するようにしてもよいし、グループ1及び2の両方に属するようにしてもよい。なお、グループ間でアンビエント度の範囲が重なってもよく、具体的には、グループ2のアンビエント度を「50~80」としてもよい。
 グループを用いる場合には、上記ステップS201において、受付部17は、ユーザからグループIDを受け付ける。グループIDとアンビエント度の範囲とはグループテーブル60によって対応付けられているので、受け付けたグループIDは、アンビエント度の範囲に変換され得る。
 そして、上記ステップS202において、取得部11は、ユーザから受け付けたグループIDに属しているコンテンツ、つまり、ユーザから受け付けたグループIDにグループテーブル60により対応付けられたアンビエント度の範囲に含まれるアンビエント度が紐付けられたコンテンツを取得する。
 例えば、上記ステップS201において受付部17がグループIDとして2を受け付けた場合、取得部11は、グループIDが2である、つまりアンビエント度の範囲50~70に属するコンテンツであるコンテンツC及びZをサーバ30から受信する。
 このようにすることで、ユーザがアンビエント度の範囲の上限値及び下限値を明示的に詳細に指定することなく、より簡易な指定によりコンテンツを指定することができる。
 なお、取得部11は、コンテンツを取得する際に、受け付けたアンビエント度の範囲に含まれる指標が紐付けられた映像コンテンツと音響コンテンツとを取得してもよい。そして、再生制御部13は、取得したこれらの映像コンテンツと音響コンテンツとをともに再生してもよい。ここで、映像コンテンツとは、映像及び音響のうちの映像のみを含むコンテンツをいい、音響コンテンツとは、映像及び音響のうちの音響のみを含むコンテンツをいう。
 なお、サーバ30が保有するコンテンツそれぞれについて、電子機器10によって再生された回数などの統計情報を収集することもできる。そして、収集した統計情報をそのコンテンツの提供者にフィードバックすることにしてもよい。このようにすることで、コンテンツ提供者に対してコンテンツの再生回数などの統計情報を提供できるとともに、コンテンツの生成の際の参考情報として活用できる利点がある。
 なお、ここでは、電子機器10の取得部11が、サーバ30の指標算出部32により算出された指標を取得する構成について説明したが、指標算出部32は、電子機器10に備えられていてもよい。その場合、例えば、取得部11がサーバ30からコンテンツのコンテンツデータを取得した後に、取得したコンテンツの指標を指標算出部32が算出するようにしてもよい。このようにすれば、電子機器10により取得されるより前に予め指標を算出しておく必要がなくなり、電子機器10により取得されたコンテンツだけに対して指標を算出すればよいことになる。よって、制御システム1全体で見た場合の指標の算出処理を軽減することができる利点がある。
 (実施の形態1の変形例)
 本変形例において、より柔軟なコンテンツの指定を可能とする電子機器及び制御システムについて、サーバにコンテンツを格納する際に指標を調整する技術について説明する。
 本変形例の制御システム1は、サーバ30Aの構成が、実施の形態1におけるサーバ30とは異なる。実施の形態1と異なる部分について以降で説明する。なお、上記実施の形態と同じ構成要素については、同じ符号を付し、詳細な説明を省略する。
 図9は、本変形例におけるサーバ30Aの構成を示すブロック図である。
 図9に示されるように、サーバ30Aは、格納部31Aと、記憶部33と、提供部34と、提示部36とを備える。また、格納部31Aは、指標算出部32に加えて、調整部35を備える。サーバ30Aは、サーバ30と同様に、例えば、プロセッサ、メモリ、通信インタフェース等を備えるコンピュータに実装され得る。その場合、プロセッサがメモリを用いて所定のコンピュータプログラムを実行することで、上記の各機能が実現され得る。
 調整部35は、格納部31Aが記憶部33に格納すべきコンテンツの調整をする処理部である。調整部35は、コンテンツを調整することで、コンテンツのアンビエント度を変化させる。具体的には、調整部35は、コンテンツに含まれる映像の明度、彩度若しくは色彩など、又は、シーンチェンジの態様、再生されているコンテンツに含まれる音響の音量若しくは周波数分布などを変更することで、コンテンツの調整を行う。
 提示部36は、格納部31Aによりコンテンツを格納する際に、格納すべきコンテンツの指標を画像の表示、又は、音の出力により出力する出力装置である。提示部36は、表示画面又はスピーカなどを備える。
 図10は、本変形例における、制御システム1における、アンビエント度の調整処理を示すフロー図である。図11及び図12は、本変形例における、アンビエント度の調整結果の一例を示す説明図である。図10~図12を参照しながらアンビエント度の調整処理について説明する。なお、図10に示される処理は、実施の形態1の図6の処理に代えて行われる処理である。
 ステップS301において、格納部31Aは、コンテンツのコンテンツデータをコンテンツ提供者から提供される。このとき、実施の形態1のステップS101と同様、コンテンツデータとともにメタデータを提供されてもよい。メタデータの内部に指標が設定されていてもよいし、されていなくてもよい。
 ステップS302において、指標算出部32は、ステップS301で提供されたコンテンツに指標が紐付けられているか否かを判定する。この処理は、実施の形態1のステップS102と同様である。コンテンツに指標が紐付けられていると判定した場合(ステップS302でYes)には、ステップS304に進み、そうでない場合(ステップS302でNo)には、ステップS303に進む。
 ステップS303において、指標算出部32は、コンテンツの映像アンビエント度、音響アンビエント度、及びアンビエント度を算出する。この処理は、実施の形態1のステップS103、S104及びS105の処理と同じである。
 ステップS304において、指標算出部32は、ステップS303で算出したアンビエント度などを提示部36により提示する。
 ステップS305において、調整部35は、コンテンツの調整を行う。具体的には、調整部35は、画像処理又は音響処理により、コンテンツに含まれる映像の明度、彩度若しくは色彩など、又は、シーンチェンジの態様、再生されているコンテンツに含まれる音響の音量若しくは周波数分布などを変更することで、コンテンツの調整を行う。これにより、調整部35は、ステップS301で提供されたコンテンツのアンビエント度を変化させた、新たなコンテンツを生成する。なお、ステップS305の調整が行われた後のコンテンツを「調整後のコンテンツ」ともいう。これに対して、ステップS305の調整が行われる前のコンテンツ、つまり、ステップS301でコンテンツ提供者から提供されたコンテンツを「調整前のコンテンツ」ともいう。
 例えば、図3に示される波紋の映像のコンテンツの明度を低下させることでコンテンツのアンビエント度を上昇させる例を図11及び図12を参照しながら説明する。
 図11及び12は、それぞれ、図3に示されるコンテンツ40の明度を低下させることでアンビエント度を上昇させたコンテンツ40A及び40Bを示している。コンテンツ40Aは、コンテンツ40より明度が低く、コンテンツ40Bは、コンテンツ40Aより明度が低い。よって、コンテンツ40、40A、40Bと進むほど、明度が低下し、ユーザが注意を向けると推定される度合いが低くなる。
 なお、ステップS305におけるコンテンツの調整は、コンテンツ提供者が許容するときのみ行うようにしてもよい。その場合、ステップS304でコンテンツのアンビエント度を提示するときに、併せてコンテンツの調整を行うことをコンテンツ提供者が許容するか否かを示す許否情報を受け付けるようにし、コンテンツの調整をコンテンツ提供者が許容することを示す許否情報を受け付けた場合にのみ、コンテンツの調整を行う。これにより、コンテンツ提供者の意図に反してコンテンツの調整を行うことが回避される利点がある。
 ステップS306において、指標算出部32は、調整後のコンテンツのアンビエント度を算出する。この処理の内容はステップS304と同じである。
 ステップS307において、指標算出部32は、調整後のコンテンツと、ステップS306で算出した指標とを提示部36によりコンテンツ提供者に提示する。このとき、コンテンツ及びアンビエント度とともに、提示しているコンテンツを、後に電子機器10により再生するためのコンテンツとして記憶部33に記憶するか否かを許容するか否かを問い合わせるメッセージを提示してもよい。
 ステップS308において、指標算出部32は、ステップS307で提示したコンテンツを記憶部33に記憶することをコンテンツ提供者が許容するか否かを示す許否情報を取得する。これは、ステップS307でメッセージを提示部36により提示した場合には、このメッセージに対する回答として取得することができる。
 ステップS309において、格納部31Aは、ステップS308で取得した許否情報が、調整後のコンテンツを記憶部33に格納することをコンテンツ提供者が許容することを示しているか否かを判定する。コンテンツ提供者が許容することを示している場合にはステップS310に進み、そうでない場合には、ステップS311に進む。
 ステップS310において、格納部31Aは、調整前のコンテンツと、調整後のコンテンツとのそれぞれのコンテンツデータ及びメタデータを記憶部33に格納する。
 ステップS311において、格納部31Aは、調整前のコンテンツのコンテンツデータ及びメタデータを記憶部33に格納する。このとき、調整後のコンテンツのコンテンツデータ及びメタデータは記憶部33に格納されない。
 ステップS310又はS311を終了したら、図10に示される一連の処理を終了する。ステップS310又はS311において記憶部33に格納されたコンテンツデータ及びメタデータは、電子機器10により取得され再生され得るコンテンツとなる。
 図10に示される一連の処理により、コンテンツ提供者から提供されたコンテンツの調整を行うことで、一のコンテンツから、アンビエント度が異なる複数のコンテンツを生成し、これらを電子機器10により再生され得るコンテンツとして得ることができる。また、その際に、コンテンツ提供者の意図に反してコンテンツの調整が行われること、及び、コンテンツ提供者の意図に反した内容の調整がコンテンツに対して行われることを回避できる。
 以上のように、本実施の形態及び本変形例に示される電子機器の制御方法によれば、電子機器は、コンテンツに紐付けられた指標を、その指標の範囲でもって指定することで、再生させるコンテンツを指定し得る。その際、ユーザは、検索キーを想起する必要はない。ユーザは、コンテンツに紐付けられた指標の大まかな値を、その範囲でもって指定するだけで、電子機器により再生させるコンテンツを指定し得る。このように、電子機器は、より柔軟なコンテンツの指定を可能とする。また、柔軟なコンテンツの指定を可能とするので、ユーザの意図を反映したコンテンツの決定に失敗した場合における電子機器の処理負荷及び消費電力の増大の問題を未然に回避し得る。
 また、電子機器は、再生されているコンテンツに対してユーザが向ける注意の度合いを示す推定指標を、具体的に指標として用いることによって、より柔軟なコンテンツの指定を可能とする。
 また、電子機器は、コンテンツに含まれる映像と音響とのそれぞれに対してユーザが向ける注意の度合いに基づいて、コンテンツに紐付けられる指標を算出する。これにより、コンテンツに含まれる映像と音響とを考慮してコンテンツの指標を算出することができる。
 また、電子機器は、映像指標と音響指標とのうちの音響指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。一般に人が、電子機器が提示する映像に対して意図的に注意を向けないようにすることは比較的容易であるが、音響に対して意図的に注意を向けないようにするのは容易ではない。つまり、電子機器が提示する音響から意図的に注意を背けることは難しいという特徴がある。そこで、コンテンツに紐付けられる指標において、音響に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 また、電子機器は、映像指標と音響指標とのうちの映像指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。一般に、コンテンツを表示する表示画面の寸法が大きいと、ユーザは、映像から注意を背けることが難しい。このような場合に、コンテンツに紐付けられる指標において、映像に対して人が向ける注意の度合いの寄与を相対的に大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 また、電子機器は、コンテンツを表示する表示画面の大きさに基づいて映像指標の重みを重くした加重平均により、コンテンツに紐付けられる指標を算出する。上記のとおり、コンテンツを表示する表示画面の寸法が大きいと、ユーザは、映像から注意を背けることが難しい。しかも、表示画面の寸法が大きいほど、ユーザが映像から注意を背けることが、より一層難しくなる。そこで、コンテンツに紐付けられる指標において、映像に対して人が向ける注意の度合いの寄与を、表示画面の寸法が大きいほど相対的により大きくすることで、コンテンツの指定に用いる指標を、ユーザが向ける注意の度合いについての感覚に即した指標にすることができる。
 また、電子機器は、コンテンツに含まれる映像の明度、彩度、色相、又は、シーンチェンジの態様を具体的に用いて、映像指標を算出し得る。
 また、電子機器は、コンテンツに含まれる音量、周波数分布、又は、音量の変化の態様を具体的に用いて、音響指標を算出し得る。
 また、電子機器は、再生しているコンテンツとともに、当該コンテンツに紐付けられている指標をユーザに提示することで、コンテンツの指標をユーザに認識させることができる。そして、ユーザが電子機器に提示させることを希望するコンテンツと、ユーザが指定した指標の範囲とが適合しているか否かなどについての判断等をユーザにさせることができる。
 また、電子機器は、映像コンテンツと音響コンテンツとをともに再生する場合に、再生する映像コンテンツと音響コンテンツとの指標がともに、ユーザが指定した範囲に含まれるものとすることができる。これにより、ユーザは、電子機器により、同じ程度の注意を向けると推定される映像コンテンツと音響コンテンツとをともに再生させることができる。
 また、電子機器は、サーバに予めコンテンツを格納する際に指標を提示することで、コンテンツ提供者に対して、コンテンツに紐付けられた指標を認識させることができる。
 また、電子機器は、コンテンツの調整をしてから調整後のコンテンツの指標をコンテンツ提供者に認識させることができる。コンテンツ提供者は、調整後のコンテンツの指標を認識することで、自身が提供したコンテンツに対してなされた調整の結果を確認し、その結果に基づいてサーバに格納するかどうかの判断をするなどの行動を行うことができる。
 (実施の形態2)
 本実施の形態では、上記の実施の形態又は変形例に示した電子機器の構成、及び、電子機器の制御方法について説明する。
 図13は、本実施の形態における電子機器70を含む制御システムの構成を示すブロック図である。
 図13に示されるように、電子機器70は、受付部71と、取得部72と、再生制御部73とを備える。
 受付部71は、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付ける。
 取得部72は、受付部71が受け付けた範囲に含まれる指標が紐付けられたコンテンツを取得する。
 再生制御部73が取得したコンテンツの再生を制御する。
 図14は、本実施の形態における電子機器70の制御方法を示すフロー図である。
 図14に示されるように、電子機器70の制御方法は、ステップS1~S3を含む。
 ステップS1において、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付ける。
 ステップS2において、受け付けた範囲に含まれる指標が紐付けられたコンテンツを取得する。
 ステップS3において、取得したコンテンツの再生を制御する。
 これにより、電子機器70は、より柔軟なコンテンツの指定を可能とする。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の電子機器などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付け、受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得し、取得した前記コンテンツの再生を制御する電子機器の制御方法を実行させる。
 以上、一つまたは複数の態様に係る電子機器などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 本発明は、より柔軟なコンテンツの指定を可能とする電子機器及び制御方法等に利用可能である。
  1、2  制御システム
  10、70  電子機器
  11、72  取得部
  12、33  記憶部
  13、73  再生制御部
  13A  映像処理部
  13B  音響処理部
  14  指標取得部
  15  表示画面
  16  スピーカ
  17、71  受付部
  30、30A、75  サーバ
  31、31A  格納部
  32  指標算出部
  34、76  提供部
  35  調整部
  36  提示部
  40、40A、40B  コンテンツ
  45、46、47  画像
  50  メタデータ
  55  対応テーブル
  60  グループテーブル
  N  ネットワーク

Claims (15)

  1.  コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付け、
     受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得し、
     取得した前記コンテンツの再生を制御する
     電子機器の制御方法。
  2.  前記指標は、再生されている前記コンテンツに対してユーザが向ける注意の度合いを示す推定指標である
     請求項1に記載の電子機器の制御方法。
  3.  前記電子機器の制御方法は、さらに、
     前記コンテンツに含まれる映像に紐付けられる指標である映像指標と、前記コンテンツに含まれる音響に紐付けられる指標である音響指標とを用いて、指標を算出し、
     算出した前記指標を予め前記コンテンツに紐付ける
     請求項2に記載の電子機器の制御方法。
  4.  前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、
     前記加重平均における前記音響指標の重みが前記映像指標の重みより大きい
     請求項3に記載の電子機器の制御方法。
  5.  前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、
     前記加重平均における前記映像指標の重みが前記音響指標の重みより大きい
     請求項3に記載の電子機器の制御方法。
  6.  前記指標の算出では、前記映像指標と前記音響指標との加重平均により前記指標を算出し、
     前記加重平均における前記映像指標の重みが、前記コンテンツに含まれる映像が表示される表示画面の寸法が大きいほど大きい
     請求項3~5のいずれか1項に記載の電子機器の制御方法。
  7.  前記電子機器の制御方法は、さらに、
     前記コンテンツに含まれる映像の明度、彩度、色相、又は、シーンチェンジの態様に基づいて前記映像指標を算出する
     請求項3に記載の電子機器の制御方法。
  8.  前記電子機器の制御方法は、さらに、
     前記コンテンツに含まれる音響の音量、周波数分布、又は、音量の変化の態様に基づいて前記音響指標を算出する
     請求項3に記載の電子機器の制御方法。
  9.  前記電子機器の制御方法は、さらに、
     受け付けた前記範囲を、再生されている前記コンテンツとともに提示する
     請求項1~8のいずれか1項に記載の電子機器の制御方法。
  10.  前記コンテンツの取得では、
     (a)受け付けた前記範囲に含まれる前記指標が紐付けられたコンテンツであって、映像及び音響のうちの映像のみを含むコンテンツである映像コンテンツと、(b)受け付けた前記範囲に含まれる前記指標が紐付けられたコンテンツであって、映像及び音響のうちの音響のみを含むコンテンツである音響コンテンツと、を取得し、
     前記再生の制御では、
     取得した前記映像コンテンツと前記音響コンテンツとをともに再生する
     請求項1~9のいずれか1項に記載の電子機器の制御方法。
  11.  前記コンテンツの取得では、前記コンテンツが予め格納されたサーバから前記コンテンツを取得し、
     前記サーバに予め前記コンテンツを格納する際には、さらに、前記指標を提示する
     請求項1~10のいずれか1項に記載の電子機器の制御方法。
  12.  前記サーバに予め前記コンテンツを格納する際には、さらに、格納した前記コンテンツを調整し、調整後のコンテンツについて算出された指標を提示する
     請求項11に記載の電子機器の制御方法。
  13.  電子機器であって、
     コンテンツに紐付けられる指標であって、連続値により表現される指標の範囲をユーザから受け付ける受付部と、
     前記受付部が受け付けた前記範囲に含まれる指標が紐付けられたコンテンツを取得する取得部と、
     前記取得部が取得した前記コンテンツの再生を制御する再生制御部とを備える
     電子機器。
  14.  請求項13に記載の電子機器と、サーバとを備える電子機器の制御システムであって、
     前記サーバは、
     前記受付部が受け付けた前記範囲を示す情報を取得し、取得した前記情報に示される前記範囲に含まれる指標が紐付けられたコンテンツを、前記電子機器の前記取得部に提供する提供部を備える
     電子機器の制御システム。
  15.  請求項1に記載の電子機器の制御方法をコンピュータに実行させるためのプログラム。
PCT/JP2018/005614 2017-02-21 2018-02-19 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム WO2018155352A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762461717P 2017-02-21 2017-02-21
US62/461717 2017-02-21
JP2017-190029 2017-09-29
JP2017190029A JP2020065098A (ja) 2017-02-21 2017-09-29 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム

Publications (1)

Publication Number Publication Date
WO2018155352A1 true WO2018155352A1 (ja) 2018-08-30

Family

ID=63252678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005614 WO2018155352A1 (ja) 2017-02-21 2018-02-19 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム

Country Status (1)

Country Link
WO (1) WO2018155352A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597358A (zh) * 2020-12-03 2021-04-02 北京天融信网络安全技术有限公司 一种数据展示方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184617A (ja) * 2003-12-22 2005-07-07 Casio Comput Co Ltd 動画再生装置、撮像装置及びそのプログラム
JP2006014084A (ja) * 2004-06-28 2006-01-12 Hiroshima Univ 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法
JP2009224925A (ja) * 2008-03-14 2009-10-01 Mitsubishi Electric Corp テレビジョン装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184617A (ja) * 2003-12-22 2005-07-07 Casio Comput Co Ltd 動画再生装置、撮像装置及びそのプログラム
JP2006014084A (ja) * 2004-06-28 2006-01-12 Hiroshima Univ 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法
JP2009224925A (ja) * 2008-03-14 2009-10-01 Mitsubishi Electric Corp テレビジョン装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597358A (zh) * 2020-12-03 2021-04-02 北京天融信网络安全技术有限公司 一种数据展示方法、装置及电子设备
CN112597358B (zh) * 2020-12-03 2023-12-08 北京天融信网络安全技术有限公司 一种数据展示方法、装置及电子设备

Similar Documents

Publication Publication Date Title
KR100934928B1 (ko) 오브젝트중심의 입체음향 좌표표시를 갖는 디스플레이장치
US8891794B1 (en) Methods and devices for creating and modifying sound profiles for audio reproduction devices
CN101681663B (zh) 处理音频数据的设备和方法
US8917972B2 (en) Modifying audio in an interactive video using RFID tags
US20150193196A1 (en) Intensity-based music analysis, organization, and user interface for audio reproduction devices
US7725203B2 (en) Enhancing perceptions of the sensory content of audio and audio-visual media
KR101251626B1 (ko) 스마트 기기를 이용한 음향기기의 특성에 대한 보상 서비스 제공 방법
JP6253671B2 (ja) 電子機器、制御方法およびプログラム
JP2011130279A (ja) コンテンツ提供サーバ、コンテンツ再生装置、コンテンツ提供方法、コンテンツ再生方法、プログラムおよびコンテンツ提供システム
US11758326B2 (en) Wearable audio device within a distributed audio playback system
KR101353467B1 (ko) 오브젝트중심의 입체음향 좌표표시를 갖는 디스플레이장치
CN114466242A (zh) 显示设备及音频处理方法
JP2006129262A (ja) 電子機器および同機器の消費電力制御方法
WO2018155352A1 (ja) 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム
JP2007213040A (ja) オーディオファイル再生装置およびこれを利用したオーディオファイルナビゲーション方法
US20140208353A1 (en) Multiple Resolution Audio and Video Systems, Methods of Production, Delivery and Uses Thereof
JP2020065098A (ja) 電子機器の制御方法、電子機器、電子機器の制御システム、及び、プログラム
CN116438812A (zh) 再现装置、再现方法、信息处理装置、信息处理方法及程序
JP6474292B2 (ja) カラオケ装置
WO2018155351A1 (ja) 再生方法、再生システム、および、再生装置
GB2456835A (en) Media content with embedded control data
JP5349171B2 (ja) 演奏条件設定機能付きカラオケシステム
JP2020065099A (ja) 再生方法、再生システム、および、再生装置
US20240331678A1 (en) Systems and methods for pre-generated inverse audio canceling
JP7299810B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18756776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18756776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP