WO2017038852A1 - 制御装置、出力装置、および出力方法 - Google Patents

制御装置、出力装置、および出力方法 Download PDF

Info

Publication number
WO2017038852A1
WO2017038852A1 PCT/JP2016/075414 JP2016075414W WO2017038852A1 WO 2017038852 A1 WO2017038852 A1 WO 2017038852A1 JP 2016075414 W JP2016075414 W JP 2016075414W WO 2017038852 A1 WO2017038852 A1 WO 2017038852A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
content
terminal device
output device
terminal
Prior art date
Application number
PCT/JP2016/075414
Other languages
English (en)
French (fr)
Inventor
欽也 山出
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2017538063A priority Critical patent/JPWO2017038852A1/ja
Publication of WO2017038852A1 publication Critical patent/WO2017038852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • This disclosure relates to a control device, an output device, and an output method, and more particularly, to a control device capable of controlling a content output device, an output device equipped with the control device, and an output method using the output device.
  • content that includes multiple elements such as voice, text, and still images.
  • Such content may be output in cooperation with a plurality of output devices.
  • the one content is output in cooperation with a certain output device outputting sound, a certain output device outputting characters, a certain output device outputting a still image, and the like.
  • Patent Document 1 discloses a method of outputting a single content by collecting a plurality of terminal devices capable of outputting moving image data.
  • the terminal device disclosed in Patent Document 1 includes a relative position detection unit that detects the approach of another device and detects the relative position. And a terminal device performs the setting for implement
  • a terminal device to be output is not determined in consideration of the types of elements included in the content. For this reason, if the attributes of the terminal device (screen size, resolution, speaker quality, etc.) do not meet the conditions for outputting the content elements, the content output may not be effectively realized.
  • An object of an aspect of the present disclosure is to provide a control device that can effectively output one content in cooperation with one or more output devices. Another object of the present invention is to provide an output device that can effectively output one content in cooperation with one or more devices. Another object of the present invention is to provide an output method capable of effectively outputting one content in cooperation with one or more output devices. Another object of the present invention is to provide a control program for a control device capable of effectively outputting one content in cooperation with one or more output devices.
  • the control device is a control device capable of controlling a plurality of output devices including an output unit for outputting content, and includes one or more elements included in the output content to be output.
  • a determining unit for determining an output device suitable for outputting each of the elements from the plurality of output devices based on the element type or parameter and the attribute information or the state information of the output device; Transmitting data necessary for outputting one or more elements included in the output content to each output device determined by the determination unit, and instructing each output device to output at least a part of the data An output control unit.
  • the element type includes at least one of an image, a character, and sound
  • the parameter includes an aspect ratio when the element type is an image, and when the element type is a character, the parameter includes at least the number of characters and the character direction. If the element type is audio, at least one of stereo designation and monaural designation is included.
  • the attribute information includes the output capability of the element type of the output device, and the state information includes at least one of values representing the orientation of the output device and the surrounding environment.
  • the determination unit outputs, for each of one or more elements included in the content to be output, an output device that has an attribute closest to the output condition of the element represented by the parameter of the element, and that is suitable for output of the element. Determine as a device.
  • the output device is an output device equipped with the above-described control device and capable of outputting content, an output unit for outputting content, and a predetermined range from the output device. And a detection unit for detecting an output device existing inside. The determination unit is based on attribute information or status information included in the output device existing in the predetermined range detected by the detection unit, and element types or parameters of one or more elements included in the output content Thus, an output device suitable for outputting each of one or more elements included in the output content is determined from one or more output devices detected by the detection unit.
  • the output device further includes a group management unit for performing a process of grouping one or more output devices detected to be present in a predetermined range by the detection unit.
  • the group management unit releases the output device that is no longer detected from being grouped when it is no longer detected that the output device grouped by the grouping process exists in the range defined in advance by the detection unit. To do.
  • the output method is a method of outputting output content including one or more elements on one or more output devices, wherein each of the one or more elements includes an element type or parameter, and an output Determining an output device suitable for outputting each of the elements from one or more output devices based on the attribute information or status information of each device, and one or more included in the output content Transmitting to each output device determined in the step of determining the data necessary for the output of each element, and instructing each output device to output at least a part of the data.
  • control program is a control device program capable of controlling one or more output devices including an output unit for outputting content.
  • This program allows the control device to set one or more output devices based on the element type or parameter of each of the one or more elements included in the output content to be output and the attribute information or status information of each output device. Determining the output device suitable for outputting each of the elements, and determining each of the output devices determined in the step of determining data necessary for outputting one or more elements included in the output content Transmitting and instructing each output device to output at least a portion of the data.
  • FIG. 1 is a block diagram illustrating a specific example of a device configuration of a terminal device 100 as an example of a content output device according to the first embodiment.
  • the terminal device 100 may be any device that can output content.
  • the output of content can be interpreted as output when the content is sound, playback and display when the content is a still image or video, and display when the content is text.
  • the terminal device 100 is, for example, a smartphone, a tablet terminal, a game machine, a digital camera, a video camera, a PC (personal computer), or the like.
  • a terminal device 100 includes a CPU (Central Processing Unit) 10 that is a control device for controlling the entire device, and a ROM (Read Only Memory) 11 for storing a program executed by the CPU 10. And a RAM (Random Access Memory) 12 that serves as a work area when the CPU 10 executes the program and stores various information. Further, the terminal device 100 includes a speaker 13, a display 14, an input device 15 such as a key, and a sensor 18. The terminal device 100 also includes a first communication device 16 for wireless communication with other terminal devices 100 and a second communication device 17 for communicating with other devices such as a server (not shown) via a network such as the Internet. Including. The speaker 13 and the display 14 correspond to an output unit for outputting content on the terminal device 100.
  • the speaker 13 and the display 14 correspond to an output unit for outputting content on the terminal device 100.
  • the sensor 18 is a sensor for detecting the environment around the output unit, such as an illuminance sensor, a microphone, or an acceleration sensor.
  • Sensor values which are values representing the environment around the output unit, such as the illuminance and sound detected by the sensor 18 and the orientation of the terminal device itself, are input to the CPU 10.
  • FIG. 2 is a diagram illustrating an outline of operation of the terminal device 100 according to the first embodiment.
  • terminal device 100A which is the first terminal device, functions as a control device for one or more terminal devices including itself, which is a content output device.
  • the terminal device 100A stores output content A that is content to be output.
  • the output content A is provided to the terminal device 100A from another device such as a server (not shown) or another terminal device, and is stored in the memory (RAM 12) of the terminal device 100A.
  • the terminal device 100A detects that these terminal devices 100B and 100C are close to each other and exist within a predetermined range based on, for example, the strength of wireless communication with the terminal devices 100B and 100C.
  • the terminal device 100 may detect that the terminal devices 100B and 100C are approached by the sensor 18 and exist in a predetermined range.
  • the range defined in advance refers to a range of distance in which the distance from the terminal device 100A that is a control device is recognized as another terminal device contacting or approaching the terminal device 100A.
  • the terminal device 100A is, for example, detected by a terminal device detected in a predetermined period from the timing at which it is first detected that another terminal device exists in the above range, a predetermined number, or a user's specific operation.
  • One or more terminal devices that have been detected to exist within the above range, such as detected terminal devices, are grouped as a terminal device group that outputs content to be output.
  • the group may or may not include the terminal device 100A that is a control device.
  • the terminal device 100A may continue to monitor whether another terminal device 100 is present in the predetermined range during the subsequent operation. And 100 A of terminal devices may update a group based on a detection result, when a change arises in the terminal device which exists in the said range.
  • the content to be output may be content that has already been output by the terminal device 100A when the subsequent operation is started. For example, when a certain user is outputting the output content A with the terminal device 100A, other terminal devices 100B try to output the output content A in cooperation with their terminal devices 100B and 100C. , 100C is brought close to the vehicle.
  • the terminal device 100A that is a control device acquires attribute information from the terminal devices 100B and 100C (steps S2-1 and S2-2).
  • the attribute information acquired in steps S2-1 and S2-2 includes attribute information related to content output in the terminal device 100.
  • the attribute information related to content output is information representing the output capability of the element for each element type. For example, the size (aspect ratio) of the display 14, the resolution, the number of characters that can be displayed, the frequency characteristics of the speaker 13, and stereo / mono. , Etc.
  • the terminal device 100A may store the attribute information of each terminal device 100 in a memory (RAM 12) in advance and acquire the grouped terminal device 100 attribute information by reading from the memory.
  • the terminal device 100A further acquires state information from the grouped terminal devices 100B and 100C.
  • the state information is information representing the state of the content output device, and includes the orientation of the terminal device, the illuminance around the terminal device, the volume around the terminal device, and the like.
  • the terminal device 100A which is a control device, acquires state information from each terminal device 100 at a predetermined timing and stores it in the memory, and acquires the attribute information of the grouped terminal devices 100 by reading it from the memory. May be.
  • the terminal device 100A obtains information related to the output content A that is the content to be output from a content table that is a storage area for storing information related to the content prepared in the RAM 12 (step S3).
  • the information regarding the output content A includes an element type of each of one or more elements included in the output content A and a parameter in the element type.
  • the element type of one or more elements included in the content is information for specifying elements constituting the content, such as a still image, a moving image, sound, and character data. Parameters for the element type include, for example, the aspect ratio and size when the element type is an image, stereo or monaural when the element type is audio, the number of characters, the character direction, Includes resolutions and fonts required for display.
  • Registration of information related to the output content A in the content table may be automatically performed at the timing when the output content A is stored in the terminal device 100A.
  • the terminal device 100A may register and change information regarding the output content A in the content table in accordance with a user operation.
  • the content table may be stored in a device outside the terminal device 100A such as a server.
  • the terminal device 100A accesses the content table stored in the device and reads information regarding the corresponding output content A.
  • the terminal device 100A which is a control device, selects one of the terminal devices belonging to the group based on the element type or parameter of each of the one or more elements included in the output content A and the attribute information acquired from each of the terminal devices 100B and 100C.
  • An output device suitable for the output of each of the one or more elements is determined (step S4).
  • the terminal device 100A replaces the terminal device 100 having a display with an aspect ratio suitable for reproduction of the image with the output content A. Is determined as an output device that outputs the image.
  • the terminal device 100 in which the aspect ratio of the mounted display 14 does not match the aspect ratio of the image included in the content does not output the image with high quality.
  • the terminal device 100A determines the data amount of the character from terminal devices other than the terminal device determined as the output device that outputs the output content image.
  • the terminal device 100 having a display capable of displaying the number of characters (number of characters) or more is determined as an output device that outputs characters of the output content.
  • the terminal device 100A has a display capable of specifying whether the character string is horizontal writing or vertical writing from a parameter in an element type that is a character such as English, Japanese, or character direction, and displaying the character direction.
  • the terminal device is determined as an output device that outputs characters of the output content.
  • the terminal device 100A may determine whether the character is written horizontally or vertically based on the information added to the output content A or the direction of the space included in the character string. Further, when the output content includes an element whose element type is audio and stereo audio, the terminal device 100A is determined as an output device that outputs an image of the output content A and an output device that outputs characters.
  • the terminal device 100 having a speaker capable of stereo output of sound is determined as the output device that outputs the sound of the output content A. For example, when the sound included in the content is stereo, the terminal device 100 having a monaural characteristic of the mounted speaker 13 cannot output the sound with high quality.
  • step S4 the terminal device 100A selects a terminal device that satisfies the output condition represented by the element type or parameter of each of the one or more elements included in the output content A among the terminal devices belonging to the group. It is determined as an output device suitable for output.
  • the terminal device 100A further determines an output device suitable for the output of each of the one or more elements based on the status information of the terminal devices 100B and 100C.
  • the terminal device 100A outputs the terminal device 100 in which the display 14 is placed in an appropriate direction for reproducing the image. It is determined as an output device that outputs an image of content A. For example, when the orientation of the image of the output content is landscape, the terminal device 100 placed in the portrait orientation (portrait) does not output the image with high quality.
  • the terminal device 100A displays the terminal device 100 whose peripheral illuminance is greater than or equal to a predetermined illuminance as the output content A. It is determined as an output device that outputs an image. For example, since there is a possibility that an object is placed on the display 14 in the terminal device 100 in which the surrounding illuminance is detected by the sensor 18 that is a camera or an illuminance sensor, the terminal device 100 is suitable for the user. This is because an image cannot be output with high visibility.
  • the terminal device 100A determines that the orientation of the display 14 is in a state corresponding to the character direction depending on whether the character is written horizontally or vertically. 100 is determined as an output device that outputs characters of the output content. For example, the terminal device 100A sets the terminal device 100 in a vertically placed state in which the display 14 is in a vertically long state when the characters of the output content A are vertically written, and places the display 14 in a horizontally long state in the case of horizontally written characters. The horizontally placed terminal device 100 is determined as an output device that outputs characters of the output content.
  • the terminal device 100A has the terminal device 100 in which the display 14 is in a horizontally long state when the characters of the output content A are vertically written, and the terminal device 100 in which the display 14 is in a vertically long state when it is horizontally written. May be determined as an output device that outputs characters of the output content.
  • the terminal device 100A selects a terminal device having attribute information closest to the output condition represented by the element type or parameter of each of the one or more elements included in the output content A among the grouped terminal devices. It is determined as an output device suitable for the output of the element. More preferably, in step S4, when there is no terminal device in the group that matches the output condition represented by the element type or parameter of each element, the terminal device 100A most satisfies the output condition among the terminal devices of the group. A terminal device having close attribute information is determined as an output device suitable for outputting the element.
  • the terminal device 100A that is a control device may accept a user operation for selecting a terminal device that outputs the element for each element, and may determine a terminal device that outputs in accordance with the operation in step S4.
  • the terminal device 100A groups the terminal devices 100 existing in the above range and reads information about the output content A from the content table, the selection screen in FIG. 3 is displayed on the display 14 to accept a user operation.
  • FIG. 3 for each of one or more elements included in the output content A, grouped terminal devices are presented so as to be selectable.
  • the terminal device 100A determines at least a part of the data of the elements corresponding to the determined terminal devices. By transmitting a command for instructing output, the terminal device is instructed to output at least a part of the element.
  • step S4 it is assumed that the terminal device 100A determines that the terminal device suitable for outputting characters included in the output content A is the terminal device 100B, and the terminal device suitable for outputting voice is the terminal device 100C.
  • the terminal device 100A transmits character data included in the output content A and a command for instructing output (display) of at least a part of the character to the terminal device 100B, whereby at least the character of the character is transmitted to the terminal device 100B.
  • a part of output (display) is instructed (step S5-1).
  • the terminal device 100A transmits audio data included in the output content A and a command for instructing output of at least a part of the sound to the terminal device 100C, thereby outputting at least a part of the sound to the terminal device 100C. (Step S5-2).
  • each of one or more elements included in the output content A has attribute information suitable for the output of the grouped terminal devices. It is output at the terminal device.
  • FIG. 4 is a block diagram showing an example of a functional configuration of terminal device 100 as a control device for performing the above operation.
  • Each function of FIG. 4 is mainly realized by the CPU 10 when the CPU 10 of the terminal device 100 reads a program stored in the ROM 11 onto the RAM 12 and executes the program.
  • the functions may be realized by other hardware shown in FIG. 1 or other hardware such as an electric circuit (not shown).
  • the CPU 10 of the terminal device 100 includes a detection unit 101, a group management unit 111, an attribute input unit 102, a storage unit 103, and an attribute acquisition unit 104.
  • CPU 10 further includes a parameter acquisition unit 105, a determination unit 106, and an output control unit 107.
  • the detection unit 101 detects other terminal devices that exist in a predetermined range based on the communication strength and the like.
  • the group management unit 111 monitors the detection result of the detection unit 101, groups one or more detected terminal devices, or updates the group.
  • the attribute input unit 102 receives input of information representing attribute information related to content output from other grouped terminal devices, and the storage unit 103 stores the information in the attribute storage unit 121 prepared in the RAM 12. .
  • the attribute storage unit 121 stores attribute information regarding content output for each terminal device.
  • the attribute acquisition unit 104 acquires attribute information related to the output of content of each terminal device grouped from the attribute storage unit 121.
  • the attribute input unit 102 may further receive input of state information from another terminal device. In this case, the attribute acquisition unit 104 acquires the status information of each grouped terminal device from the status information stored in the RAM 12.
  • the parameter acquisition unit 105 acquires the parameters of each of one or more elements included in the output content A from the content table stored in the content table storage unit 122 prepared in the RAM 12.
  • the parameter acquisition unit 105 accesses the content table stored in the other device and sets the parameters of each of one or more elements included in the output content A. get.
  • the determination unit 106 selects a terminal device suitable for the output condition in which the attribute information is represented by the element type or the parameter for each of one or more elements included in the output content A from the grouped terminal devices.
  • the terminal device is determined as an output device suitable for output.
  • the determination unit 106 further outputs, for each of one or more elements included in the output content A, a terminal device suitable for the output condition in which the state information is represented by the element type or the parameter. It is determined as a terminal device that is a device.
  • the output control unit 107 transmits data necessary for the output of the element to the terminal device determined by the determination unit 106 as an output device suitable for the output of the element.
  • the terminal device is instructed to output at least a part of the element.
  • the CPU 10 further includes a content input unit 108 and a storage unit 109.
  • the content input unit 108 receives input of the output content A from another device (not shown) such as a server.
  • the storage unit 109 analyzes the output content A to identify one or more parameters for each element included in the output content A, and the content as shown in FIG. 2 stored in the content table storage unit 122 Information regarding the output content A is stored in the table.
  • the CPU 10 further includes an instruction input unit 110 for receiving a user instruction from the input device 15.
  • the user instruction received by the instruction input unit 110 is an instruction to select a terminal device as an output device for each of one or more elements included in the output content A on the selection screen of FIG.
  • the instruction is passed to the determination unit 106.
  • the determination unit 106 determines an output device for each of one or more elements included in the output content A according to the user instruction.
  • FIG. 5 is a flowchart showing an example of an operation flow of the terminal device 100 functioning as a control device.
  • the operation shown in the flowchart of FIG. 5 is realized by the CPU 10 of the terminal device 100 reading out and executing the program stored in the ROM 11 on the RAM 12 and exhibiting the functions of FIG.
  • CPU 10 of terminal device 100 determines whether or not a change has occurred in a terminal device existing within a predetermined range based on, for example, the strength of wireless communication (step S101).
  • a change occurs, that is, when a new terminal device enters the range or the existing terminal device disappears from the range (YES in step S101)
  • the CPU 10 includes one or more terminal devices. Processing for managing the group is executed (step S103).
  • FIG. 6 is a diagram illustrating an example of the process of step S103 of FIG.
  • the CPU 10 of the terminal device 100 indicates that another terminal device 100 exists within a predetermined distance from the terminal device 100 or that another terminal device 100 has contacted the terminal device 100.
  • the terminal device newly detected within the above range is added to the group of terminal devices existing in the vicinity of the terminal device 100 (step S203).
  • the CPU 10 adds the newly detected information on the terminal device 100 to the information on the terminal devices belonging to the already stored group and updates the information.
  • step S207 when the terminal device belonging to the group is no longer detected from the above range (NO in step S201 and YES in step S205), the CPU 10 has already stored the terminal device that is no longer detected to be deleted from the group. Information on terminal devices belonging to the group is updated (step S207).
  • the CPU 10 acquires attribute information related to the output of the content of the terminal device newly belonging to the group with the update of the group, and stores it in the RAM 12. Preferably, the CPU 10 further acquires status information of the terminal devices newly belonging to the group and stores them in the RAM 12. The CPU 10 may delete the attribute information of the terminal device deleted from the group from the RAM 12 as the group is updated.
  • the CPU 10 when there is the output content A that is the content to be output (YES in step S ⁇ b> 105), the CPU 10 performs the subsequent operations.
  • the output content A may be specified by a user operation. Alternatively, when there is content A that is already being output, the CPU 10 may set the content as output content A to be output.
  • CPU10 reads the information regarding the output content A from a content table, and acquires the element type and / or parameter of each of the 1 or more elements contained in the said content (step S111). In addition, the CPU 10 reads out and acquires attribute information related to content output of each terminal device belonging to the group from the RAM 12 (step S113). Preferably, in step S113, the CPU 10 further reads out and obtains status information of each terminal device belonging to the group from the RAM 12.
  • the CPU 10 has, for each of one or more elements included in the content to be output, a terminal device having attribute information and / or state information that matches the output condition represented by the element type and / or parameter of the element, or A terminal device having attribute information and / or state information closest to the output condition is determined as an output device suitable for output of the element (step S115).
  • FIG. 7 and 8 are diagrams showing an example of the process of step S115 in FIG.
  • the element type of the element is an image (YES in step S301)
  • the attribute information of each of one or more terminal devices belonging to the group is referred to.
  • a terminal device (terminal A) suitable for the aspect ratio in which the aspect ratio of the mounted display 14 is a parameter in the element type is extracted (step S303).
  • the CPU 10 is a display mounted on each of one or more terminal devices belonging to the group.
  • the CPU 10 may extract a terminal device equipped with a display having an aspect ratio closest to the aspect ratio of the output content A image.
  • the CPU 10 transmits data for displaying guidance to any one or more terminal devices belonging to the group, and the user is provided with a display having an aspect ratio suitable for the aspect ratio of the image of the content. The preparation of the terminal device may be prompted.
  • the CPU 10 further determines whether the terminal device is in a vertically placed state or a horizontally placed state from the state information of the terminal device (terminal A) extracted in step S305. For example, when the display that is not suitable for outputting the image of the output content is in a vertically long state (NO in step S305), the CPU 10 adds the terminal device (terminal A) extracted in step S305. On the other hand, data for displaying guidance for urging the terminal device to be placed horizontally is transmitted (step S307), and a suitable display state for outputting the image of the output content A to the user of the terminal A You may be encouraged to do so. The CPU 10 may display the guidance on the terminal device 100A.
  • step S309 If the output content A includes an element for which the output device is not determined (NO in step S309), the CPU 10 repeats the operation from step S301.
  • step S3107 For an element included in the output content A, if the element type of the element is a character (NO in step S301 and YES in step S311), an image is output from one or more terminal devices belonging to the group. A terminal device (terminal B ′) other than the terminal device (terminal A) determined as the device is extracted as a character output device (step S317).
  • the CPU 10 refers to the attribute information of each of the one or more terminal devices belonging to the group. Then, a high-resolution terminal device (terminal B) whose display resolution is equal to or higher than a predetermined resolution is extracted from the one or more terminal devices (step S315).
  • the CPU 10 further determines whether the terminal device is in a portrait orientation or a landscape orientation from the status information of the terminal device (terminal B) extracted in step S315 or step S317.
  • the CPU 10 urges to place the character in the output content A vertically when it is vertically written, and urges it to be horizontally placed when it is horizontally written (or vice versa).
  • Data for displaying guidance may be transmitted to terminal B) to prompt the user of terminal B to enter a display state suitable for outputting characters of output content A.
  • the CPU 10 may display the guidance on the terminal device 100A.
  • Step S311 when the element type of the element is sound (NO in steps S301 and S311 and YES in step S319), one or more devices belonging to the group From the terminal devices, terminal devices other than the terminal device (terminal A) determined as the image output device and the terminal devices (terminals B and B ′) determined as the character output device are extracted as the voice output device.
  • the CPU 10 extracts two terminal devices for each of the left and right sounds when the parameter in the sound that is the element type is a stereo sound. For example, when one or more terminal devices are arranged in a line, in step S321, the CPU 10 extracts the two terminal devices at the left and right ends as output devices for left audio output and right audio output, respectively. .
  • the CPU 10 further determines whether the terminal device is in a portrait orientation or a landscape orientation from the status information of the terminal device (terminal B) extracted in step S315 or step S317.
  • the CPU 10 transmits data for displaying guidance recommending that the terminal device be placed horizontally on the two extracted terminal devices in order to enhance the stereo effect. Then, the user of each of these two terminal devices may be prompted to make the terminal device suitable for outputting the sound of the output content A.
  • the CPU 10 may display the guidance on the terminal device 100A.
  • the CPU 10 uses the element types and / or parameters of the elements according to the program from the terminal devices other than the terminal device extracted as the output device for each element.
  • a terminal device having attribute information and / or state information that matches the output condition represented, or a terminal device having attribute information and / or state information closest to the output condition is defined as an output device suitable for outputting the element. Determine (step S323).
  • the order of the element types to be determined is not limited to this order.
  • the order of the element types to be determined may be set in the terminal device 100A in advance, or may be set before the process of determining the terminal device by the user. Further, the order of element types for determining an output device for each output content may be specified.
  • the terminal device 100A receives a user operation instructing a change according to the screen as shown in FIG. The device may be changed.
  • the CPU 10 determines an output device for each of one or more elements included in the output content A
  • the CPU 10 transmits data for outputting the element and a command for instructing output to each terminal device determined as the output device. By doing so, the terminal device is instructed to output (step S117).
  • information regarding the output content A may not be included in the content table. That is, when the information is included in the content table (YES in step S109), the CPU 10 performs the processes of steps S111 and S113 to determine the output device.
  • the CPU 10 analyzes the content to identify one or more elements included, and outputs for each element.
  • a selection screen shown in FIG. 3 presenting a selectable terminal device belonging to the group as the device is displayed on the display 14.
  • the CPU 10 determines an output device for each element according to the user instruction (step S115).
  • the CPU 10 may not perform an operation of determining an output device for each element. In this case, the output content A is not output in cooperation with a plurality of terminal devices.
  • the terminal device 100 itself controls the terminal device 100 as a content output device.
  • the control device may be an independent device that is separate from the terminal device 100.
  • the terminal device 100 that can output content may be a tablet terminal, and the control device may be a smartphone.
  • the output content A may be content stored in a memory of a smartphone that is a control device, or content stored in any memory of one or more terminal devices 100 grouped.
  • the content specified by the user operation on the smartphone or the terminal device 100 as the control device may be acquired from another device such as a server via a network such as the Internet. .
  • one content can be output effectively and with high quality in cooperation with one or more terminal devices that can output the content. can do.
  • the disclosed features are realized by one or more modules.
  • the feature can be realized by a circuit element or other hardware module, by a software module that defines processing for realizing the feature, or by a combination of a hardware module and a software module.
  • a program that is a combination of one or more software modules for causing the CPU 10 of the terminal device 100 that is the control device or the control device to execute the above-described operation.
  • a program is recorded on a computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card, and provided as a program product. You can also.
  • the program can be provided by being recorded on a recording medium such as a hard disk built in the computer.
  • a program can also be provided by downloading via a network.
  • the program according to the present disclosure is a program module that is provided as a part of a computer operating system (OS) and calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. Also good. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. Such a program that does not include a module may also be included in the program according to the present disclosure.
  • OS computer operating system
  • the program according to the present disclosure may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. A program incorporated in such another program may also be included in the program according to the present disclosure.
  • the provided program product is installed in a program storage unit such as a hard disk and executed.
  • the program product includes the program itself and a recording medium on which the program is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

コンテンツ出力装置である端末装置(100A~C)を制御可能な制御装置である端末装置(100A)では、出力コンテンツに含まれる1つ以上の要素それぞれの要素種またはパラメータと、1台以上の端末装置それぞれの有する属性情報または状態情報とに基づいて、1台以上の端末装置の中から上記要素のそれぞれを出力するのに適した出力装置を決定する(S4)。これにより、制御装置は、1台以上の出力装置に協働して1つのコンテンツを効果的に出力させることができる。

Description

制御装置、出力装置、および出力方法
 本出願は、2015年9月3日に出願された特願2015-173875号に対して、優先権の利益を主張するものであり、それを参照することにより、その内容のすべてを本書に含める。
 この開示は制御装置、出力装置、および出力方法に関し、特に、コンテンツの出力装置を制御可能な制御装置、当該制御装置を搭載した出力装置、および当該出力装置での出力方法に関する。
 音声、文字、静止画などの複数の要素を含むコンテンツがある。このようなコンテンツを複数の出力装置で協働して出力する場合がある。たとえば、ある出力装置が音声を出力し、ある出力装置が文字を出力し、ある出力装置が静止画を出力する、などと協働して当該1つのコンテンツが出力される。
 たとえば特開2010-26215号公報(特許文献1)は、動画像データを出力可能な端末装置を複数集合させて1つのコンテンツを出力する方法を開示している。特許文献1に開示された端末装置は、他の装置の接近を検出し、相対位置を検知する相対位置検出手段を有する。そして、端末装置は、コンテンツ出力時に、ユーザ設定を必要とせずに瞬時に出力を実現するための設定を行なう。
特開2010-26215号公報
 しかしながら、特許文献1に開示されている方法はコンテンツに含まれる要素の種類を考慮して出力する端末装置が決定されていない。そのため、端末装置の属性(画面サイズ、解像度、スピーカの品質等)がコンテンツの要素の出力するための条件に合わない場合にはコンテンツの出力が効果的に実現されない場合もある。
 本開示のある局面における目的は、1台以上の出力装置に協働して1つのコンテンツを効果的に出力させることのできる制御装置を提供することである。また、他の局面における目的は、1台以上で協働して1つのコンテンツを効果的に出力することのできる出力装置を提供することである。また、他の局面における目的は、1台以上の出力装置で協働して1つのコンテンツを効果的に出力することのできる出力方法を提供することである。また、他の局面における目的は、1台以上の出力装置に協働して1つのコンテンツを効果的に出力させることのできる制御装置の制御プログラムを提供することである。
 ある実施の形態に従うと、制御装置はコンテンツを出力するための出力部を備えた複数の出力装置を制御可能な制御装置であって、出力される出力コンテンツに含まれる1つ以上の各要素の要素種またはパラメータと、出力装置が有する属性情報または状態情報とに基づいて、複数の出力装置の中から、各要素のそれぞれを出力するのに適した出力装置を決定するための決定部と、出力コンテンツに含まれる1つ以上の各要素の出力に必要なデータを決定部により決定された各出力装置に送信し、該各出力装置に該データの少なくとも一部を出力するよう指示するための出力制御部とを備える。
 好ましくは、要素種は、画像、文字、および音声の少なくとも1つを含み、パラメータは、要素種が画像の場合にはアスペクト比を含み、要素種が文字の場合には文字数および文字方向の少なくとも1つを含み、要素種が音声の場合にはステレオの指定およびモノラルの指定の少なくとも1つを含む。
 好ましくは、属性情報は出力装置の要素種の出力能力を含み、状態情報は、出力装置の向きおよび周辺の環境を表わす値の少なくとも1つを含む。
 好ましくは、決定部は、出力対象のコンテンツに含まれる1つ以上の要素それぞれについて、属性が当該要素のパラメータで表わされる当該要素の出力条件に最も近い出力装置を、要素の出力に適した出力装置として決定する。
 他の実施の形態に従うと、出力装置は上記の制御装置を搭載した、コンテンツを出力可能な出力装置であって、コンテンツを出力するための出力部と、当該出力装置から、予め規定された範囲内に存在する出力装置を検出するための検出部とを備える。決定部は、検出部によって検出された前記予め規定された範囲内に存在する出力装置が有する属性情報または状態情報と、出力コンテンツに含まれる1つ以上の各要素の要素種またはパラメータとに基づいて、検出部によって検出された1台以上の出力装置の中から、出力コンテンツに含まれる1つ以上の各要素のそれぞれを出力するのに適した出力装置を決定する。
 好ましくは、出力装置は、検出部によって予め規定された範囲に存在することが検出された1台以上の出力装置をグループ化する処理を行なうためのグループ管理部をさらに備える。グループ管理部は、グループ化する処理によってグループ化された出力装置が検出部によって予め規定された範囲に存在することが検出されなくなると、存在することが検出されなくなった出力装置をグループ化から解除する。
 他の実施の形態に従うと、出力方法は、1台以上の出力装置で1つ以上の要素を含む出力コンテンツを出力する方法であって、1つ以上の要素それぞれの要素種またはパラメータと、出力装置それぞれの有する属性情報または状態情報とに基づいて、1台以上の出力装置の中から、要素のそれぞれを出力するのに適した出力装置を決定するステップと、出力コンテンツに含まれる1つ以上の各要素の出力に必要なデータを決定するステップにおいて決定された各出力装置に送信し、該各出力装置に該データの少なくとも一部を出力するよう指示するステップとを備える。
 他の実施の形態に従うと、制御プログラムは、コンテンツを出力するための出力部を備えた1台以上の出力装置を制御可能な制御装置のプログラムである。このプログラムは制御装置に、出力される出力コンテンツに含まれる1つ以上の要素それぞれの要素種またはパラメータと、出力装置それぞれの有する属性情報または状態情報とに基づいて、1台以上の出力装置の中から、要素のそれぞれを出力するのに適した出力装置を決定するステップと、出力コンテンツに含まれる1つ以上の各要素の出力に必要なデータを決定するステップにおいて決定された各出力装置に送信し、該各出力装置に該データの少なくとも一部を出力するよう指示するステップを実行させる。
 この開示によると、1台以上の出力装置に、協働して1つのコンテンツを効果的に出力させることができる。
端末装置の装置構成の具体例を表わしたブロック図である。 端末装置の動作概要を表わした図である。 端末装置に表示される選択画面の一例を表わした図である。 端末装置の機能構成の一例を表わしたブロック図である。 端末装置の動作の流れの一例を表わしたフローチャートである。 図5のステップS103の処理の一例を表わした図である。 図5のステップS115の処理の一例を表わした図である。 図5のステップS115の処理の一例を表わした図である。
 以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
 [第1の実施の形態]
 <装置構成>
 図1は、第1の実施の形態にかかるコンテンツの出力装置の一例としての端末装置100の装置構成の具体例を表わしたブロック図である。端末装置100はコンテンツを出力可能な装置であればどのような装置であってもよい。ここで、コンテンツの出力とは、コンテンツが音声の時は出力、静止画、動画の時は再生、表示、文字の時は表示を行なうことと解釈し得る。端末装置100は、たとえば、スマートフォン、タブレット端末、ゲーム機、デジタルカメラ、ビデオカメラ、PC(パーソナルコンピュータ)などである。
 図1を参照して、端末装置100は、装置全体を制御するための制御装置であるCPU(Central Processing Unit)10と、CPU10で実行されるプログラムを記憶するためのROM(Read Only Memory)11と、CPU10がプログラムを実行する際の作業領域となったり各種情報を記憶するためのRAM(Random Access Memory)12とを含む。さらに、端末装置100は、スピーカ13と、ディスプレイ14と、キーなどの入力装置15と、センサ18とを含む。また、端末装置100は、他の端末装置100と無線通信するための第1通信装置16と、インターネットなどのネットワークを介して図示しないサーバなどの他の装置と通信するための第2通信装置17とを含む。スピーカ13やディスプレイ14は、端末装置100でコンテンツを出力するための出力部に相当する。センサ18は、照度センサやマイクや加速度センサなどの、出力部の周辺の環境を検知するためのセンサである。センサ18で検知された照度や音声や端末装置自身の向きなどの、出力部の周辺の環境を表わす値であるセンサ値は、CPU10に入力される。
 <動作概要>
 図2は、第1の実施の形態にかかる端末装置100の動作概要を表わした図である。図2を参照して、第1の実施の形態において、第1の端末装置である端末装置100Aは、コンテンツの出力装置である、自身を含めた1台以上の端末装置の制御装置として機能する。端末装置100Aは、出力対象のコンテンツである出力コンテンツAを記憶している。出力コンテンツAは、端末装置100Aに対して図示しないサーバや他の端末装置などの他の装置から提供され、端末装置100Aのメモリ(RAM12)に格納されているものである。
 制御装置である端末装置100Aに第2の端末装置である端末装置100Bおよび第3の端末装置である端末装置100Cなどの他の端末装置が接近したとする(ステップS1-1,S1-2)。端末装置100Aは、たとえば端末装置100B,100Cとの間の無線通信の強度などによって、これら端末装置100B,100Cが接近し、予め規定された範囲に存在することを検出する。端末装置100は、センサ18によって端末装置100B,100Cが接近し、予め規定された範囲に存在することを検出してもよい。予め規定された範囲は、制御装置である端末装置100Aからの距離が、当該端末装置100Aに他の端末装置が接触または接近していると認められる距離の範囲を指す。
 端末装置100Aは、たとえば最初に上記範囲に他の端末装置が存在することを検出したタイミングから予め規定された期間に検出された端末装置や、予め規定された数や、ユーザの特定の操作によって検出された端末装置など、上記範囲に存在することを検出した1台以上の端末装置を、出力対象のコンテンツを出力する端末装置群としてグループ化する。当該グループには、制御装置である端末装置100Aが含まれていてもよいし、含まれていなくてもよい。
 なお、端末装置100Aは、以降の動作中にも上記予め規定された範囲に他の端末装置100が存在するか否かを監視し続けていてもよい。そして、端末装置100Aは、上記範囲に存在する端末装置に変化が生じた場合、検出結果に基づいてグループを更新してもよい。
 出力対象のコンテンツは、以降の動作を開始する際に端末装置100Aですでに出力されているコンテンツであってもよい。たとえば、あるユーザが端末装置100Aで出力コンテンツAを出力中であったところ、他のユーザが、出力コンテンツAを自身の端末装置100B,100Cで協働して出力させようとそれぞれの端末装置100B,100Cを持ち寄って接近させた状況などが想定される。
 制御装置である端末装置100Aは、端末装置100B,100Cをグループ化すると、各端末装置100B,100Cから属性情報を取得する(ステップS2-1,S2-2)。ステップS2-1,S2-2で取得される属性情報には、当該端末装置100におけるコンテンツの出力に関する属性情報が含まれる。コンテンツの出力に関する属性情報は要素種ごとの当該要素の出力能力を表わす情報であって、たとえば、ディスプレイ14のサイズ(アスペクト比)、解像度、表示可能な文字数、スピーカ13の周波数特性、ステレオ/モノラル、などである。端末装置100Aは、各端末装置100の属性情報をメモリ(RAM12)に予め記憶しておき、グループ化した端末装置100の属性情報をメモリから読み出すことによって取得してもよい。
 好ましくは、端末装置100Aは、グループ化した各端末装置100B,100Cからさらに状態情報を取得する。状態情報は、コンテンツの出力装置の状態を表わした情報であって、端末装置の向きや、端末装置の周辺の照度や、端末装置の周辺の音量などを含む。制御装置である端末装置100Aは、予め定められたタイミングに各端末装置100から状態情報を取得してメモリに記憶しておき、グループ化した端末装置100の属性情報をメモリから読み出すことによって取得してもよい。
 次に、端末装置100Aは、出力対象のコンテンツである出力コンテンツAに関する情報を、RAM12に用意されているコンテンツに関する情報を記憶するための記憶領域であるコンテンツテーブルから取得する(ステップS3)。出力コンテンツAに関する情報は、出力コンテンツAに含まれる1以上の要素それぞれの要素種および当該要素種におけるパラメータを含む。コンテンツに含まれる1以上の要素の要素種は、たとえば、静止画、動画、音声、文字データなどの、コンテンツを構成する要素を特定する情報である。要素種におけるパラメータは、たとえば、要素種が画像である場合にはアスペクト比やサイズ、要素種が音声である場合にはステレオかモノラルか、要素種が文字である場合には文字数、文字方向、表示に必要な解像度やフォントなどを含む。
 コンテンツテーブルへの出力コンテンツAに関する情報の登録は、出力コンテンツAが端末装置100Aに格納されたタイミングで自動的に行なわれてもよい。または、端末装置100Aがユーザ操作に従ってコンテンツテーブルに出力コンテンツAに関する情報を登録、変更してもよい。
 コンテンツテーブルは、サーバなど端末装置100A外の装置に記憶されていてもよい。この場合、端末装置100Aは当該装置に記憶されているコンテンツテーブルにアクセスして該当する出力コンテンツAに関する情報を読み出す。
 制御装置である端末装置100Aは、出力コンテンツAに含まれる1以上の要素それぞれの要素種またはパラメータと、各端末装置100B,100Cから取得した属性情報に基づいて、グループに属する端末装置の中から1以上の要素それぞれの出力に適した出力装置を決定する(ステップS4)。出力コンテンツAに含まれる1つの要素の要素種が画像(静止画、動画)の場合、端末装置100Aは、当該画像の再生に適切なアスペクト比であるディスプレイを有する端末装置100を、出力コンテンツAの画像を出力する出力装置として決定する。たとえば、搭載されているディスプレイ14のアスペクト比がコンテンツに含まれる画像のアスペクト比に合致しない端末装置100では当該画像が高品質で出力されないためである。さらに、出力コンテンツに要素種が文字である要素が含まれる場合、端末装置100Aは、出力コンテンツの画像を出力する出力装置として決定された端末装置以外の端末装置の中から、当該文字のデータ量(文字数)以上の文字を表示可能なディスプレイを有する端末装置100を出力コンテンツの文字を出力する出力装置として決定する。また、この場合、端末装置100Aは、たとえば英文、日文、または文字方向などの文字である要素種におけるパラメータから文字列が横書きか縦書きかを特定し、当該文字方向を表示可能なディスプレイを有する端末装置を出力コンテンツの文字を出力する出力装置として決定する。なお、端末装置100Aは、文字が横書きか縦書きかの判断を、出力コンテンツAに付加された情報や、文字列内に含まれるスペースの方向に基づいて行なってもよい。さらに、出力コンテンツに要素種が音声であってステレオ音声である要素が含まれる場合、端末装置100Aは、出力コンテンツAの画像を出力する出力装置、および文字を出力する出力装置として決定された端末装置以外の端末装置の中から、音声をステレオ出力が可能なスピーカを有する端末装置100を、出力コンテンツAの音声を出力する出力装置として決定する。たとえば、コンテンツに含まれる音声がステレオである場合には搭載されているスピーカ13の特性がモノラルである端末装置100は当該音声を高品質で出力することができないためである。このように、ステップS4で端末装置100Aは、グループに属する端末装置のうちの出力コンテンツAに含まれる1以上の要素それぞれの要素種またはパラメータで表わされる出力条件を満たす端末装置を、当該要素の出力に適した出力装置として決定する。
 好ましくは、ステップS4で端末装置100Aは、さらに、各端末装置100B,100Cの状態情報に基づいて1以上の要素それぞれの出力に適した出力装置を決定する。出力コンテンツAに含まれる1つの要素の要素種が画像(静止画、動画)の場合、端末装置100Aは、ディスプレイ14が当該画像の再生に適切な方向に置かれている端末装置100を、出力コンテンツAの画像を出力する出力装置として決定する。たとえば、出力コンテンツの画像の向きが横長である場合に、縦長の向きに置かれている(縦置き)端末装置100では当該画像が高品質で出力されないためである。
 また、端末装置100Aは、出力コンテンツAに含まれる1つの要素の要素種が画像(静止画、動画)の場合、周辺の照度が予め定められた照度以上である端末装置100を出力コンテンツAの画像を出力する出力装置として決定する。たとえば、カメラや照度センサであるセンサ18によって周辺の照度が低いことが検出されている端末装置100はディスプレイ14上に物体が置かれている可能性があるので、当該端末装置100ではユーザに適切に視認性よく画像を出力することができないためである。
 また、出力コンテンツに要素種が文字である要素が含まれる場合、端末装置100Aは、文字が横書きか縦書きかに応じて、ディスプレイ14の向きが文字方向に応じた向きの状態である端末装置100を出力コンテンツの文字を出力する出力装置として決定する。たとえば、端末装置100Aは、出力コンテンツAの文字が縦書きである場合にはディスプレイ14を縦長な状態とする縦置きの端末装置100を、横書きである場合にはディスプレイ14を横長な状態とする横置きの端末装置100を、出力コンテンツの文字を出力する出力装置として決定する。または、端末装置100Aは、出力コンテンツAの文字が縦書きである場合にはディスプレイ14を横長な状態としている端末装置100を、横書きである場合にはディスプレイ14を縦長な状態としている端末装置100を出力コンテンツの文字を出力する出力装置として決定してもよい。
 好ましくはステップS4で端末装置100Aは、グループ化された端末装置のうち、出力コンテンツAに含まれる1以上の要素それぞれの要素種またはパラメータで表わされる出力条件に最も近い属性情報を有する端末装置を当該要素の出力に適した出力装置として決定する。より好ましくは、ステップS4で端末装置100Aは、各要素の要素種またはパラメータで表わされる出力条件に合致する端末装置がグループ内にない場合に、当該グループの端末装置のうちから該出力条件に最も近い属性情報を有する端末装置を当該要素の出力に適した出力装置として決定する。
 または、制御装置である端末装置100Aは、要素ごとに当該要素を出力する端末装置を選択するユーザ操作を受け付けて、ステップS4で当該操作に従って出力する端末装置を決定してもよい。この場合、端末装置100Aは上記範囲に存在する端末装置100をグループ化し、出力コンテンツAに関する情報をコンテンツテーブルから読み出すと、図3の選択画面をディスプレイ14に表示してユーザ操作を受け付ける。図3においては、出力コンテンツAに含まれる1以上の要素それぞれについて、グループ化した端末装置が選択可能に提示される。
 出力コンテンツAに含まれる1以上の要素ごとに当該要素の出力に適した端末装置を決定すると、制御装置である端末装置100Aは、決定した各端末装置に該当する要素のデータと少なくとも一部の出力を指示するコマンドとを送信することによって、当該端末装置に当該要素の少なくとも一部の出力を指示する。ステップS4で端末装置100Aが、出力コンテンツAに含まれる文字の出力に適した端末装置を端末装置100B、音声の出力に適した端末装置を端末装置100Cと決定したとする。このとき、端末装置100Aは、出力コンテンツAに含まれる文字データと当該文字の少なくとも一部の出力(表示)を指示するコマンドとを端末装置100Bに送信することによって、端末装置100Bに文字の少なくとも一部の出力(表示)を指示する(ステップS5-1)。また、端末装置100Aは、出力コンテンツAに含まれる音声データと当該音声の少なくとも一部の出力を指示するコマンドとを端末装置100Cに送信することによって、端末装置100Cに音声の少なくとも一部の出力を指示する(ステップS5-2)。
 制御装置である端末装置100Aで以上の制御が行なわれることによって、出力コンテンツAに含まれる1以上の要素それぞれが、グループ化された端末装置のうちの当該要素の出力に適した属性情報を有する端末装置において出力される。
 <機能構成>
 図4は、上記動作を行なうための、制御装置としての端末装置100の機能構成の一例を表わしたブロック図である。図4の各機能は、端末装置100のCPU10がROM11に記憶されているプログラムをRAM12上に読み出して実行することで、主にCPU10で実現される。しかしながら、少なくとも一部機能が図1に表わされた他のハードウェア、または図示されていない電気回路などの他のハードウェアなどによって実現されてもよい。
 図4を参照して、端末装置100のCPU10は、検出部101とグループ管理部111と属性入力部102と格納部103と属性取得部104とを含む。CPU10は、さらに、パラメータ取得部105と決定部106と出力制御部107とを含む。
 検出部101は、通信強度などに基づいて予め規定された範囲に存在する他の端末装置を検出する。グループ管理部111は、検出部101での検出結果を監視して、検出された1台以上の端末装置をグループ化、またはグループの更新を行なう。
 属性入力部102はグループ化された他の端末装置から、コンテンツの出力に関する属性情報を表わした情報の入力を受け付け、格納部103が当該情報をRAM12に用意されている属性記憶部121に格納する。属性記憶部121は、端末装置ごとにコンテンツの出力に関する属性情報を記憶する。属性取得部104は、属性記憶部121からグループ化された端末装置それぞれのコンテンツの出力に関する属性情報を取得する。属性入力部102は、他の端末装置から、さらに、状態情報の入力を受け付けてもよい。この場合、属性取得部104は、RAM12に格納された状態情報の中からグループ化された端末装置それぞれの状態情報を取得する。
 また、パラメータ取得部105は、RAM12に用意されているコンテンツテーブル記憶部122に記憶されているコンテンツテーブルから、出力コンテンツAに含まれる1以上の要素それぞれのパラメータを取得する。コンテンツテーブルが他の装置に格納されている場合には、パラメータ取得部105は当該他の装置に格納されているコンテンツテーブルにアクセスして、出力コンテンツAに含まれる1以上の要素それぞれのパラメータを取得する。
 決定部106は、グループ化された端末装置の中から、出力コンテンツAに含まれる1以上の要素ごとに、属性情報が要素種またはパラメータで表わされる出力条件に適している端末装置を当該要素の出力に適した出力装置である端末装置として決定する。好ましくは、決定部106は、出力コンテンツAに含まれる1以上の要素ごとに、さらに、状態情報が要素種またはパラメータで表わされる出力条件に適している端末装置を当該要素の出力に適した出力装置である端末装置として決定する。出力制御部107は、出力コンテンツAに含まれる1以上の要素ごとに、決定部106によって当該要素の出力に適した出力装置として決定された端末装置に当該要素の出力に必要なデータを送信し、当該端末装置に当該要素の少なくとも一部の出力を指示する。
 好ましくは、CPU10は、さらに、コンテンツ入力部108と格納部109とを含む。コンテンツ入力部108は、サーバなどの図示しない他の装置から出力コンテンツAの入力を受け付ける。格納部109は出力コンテンツAを解析することによって出力コンテンツAに含まれる1以上の要素ごとのパラメータを特定し、コンテンツテーブル記憶部122に記憶されている、図2に表わされたようなコンテンツテーブルに出力コンテンツAに関する情報を格納する。
 好ましくは、CPU10は、さらに、入力装置15からユーザ指示を受け付けるための指示入力部110を含む。指示入力部110によって受け付けたユーザ指示が、図3の選択画面における、出力コンテンツAに含まれる1以上の要素それぞれに出力装置とする端末装置を選択する指示であった場合、指示入力部110は、当該指示を決定部106に渡す。決定部106は、当該ユーザ指示に従って、出力コンテンツAに含まれる1以上の要素それぞれの出力装置を決定する。
 <動作フロー>
 図5は、制御装置として機能する端末装置100の動作の流れの一例を表わしたフローチャートである。図5のフローチャートに表わされた動作は、端末装置100のCPU10がROM11に記憶されているプログラムをRAM12上に読み出して実行し、図4の各機能を発揮することによって実現される。
 図5を参照して、端末装置100のCPU10は、たとえば無線通信の強度などに基づいて、予め規定された範囲内に存在する端末装置に変化が生じたか否かを判断する(ステップS101)。変化が生じた場合、つまり、上記範囲に新たな端末装置が入ったり、存在していた端末装置が上記範囲からなくなったりした場合(ステップS101でYES)、CPU10は、1以上の端末装置からなるグループを管理するための処理を実行する(ステップS103)。
 図6は、図5のステップS103の処理の一例を表わした図である。図6を参照して、端末装置100のCPU10は、当該端末装置100から予め規定された距離内に他の端末装置100が存在すること、または当該端末装置100に他の端末装置100が接触したことを検知すると(ステップS201でYES)、上記範囲内に新たに検出された端末装置を当該端末装置100の近傍に存在する端末装置のグループに加える(ステップS203)。具体的に、CPU10は、すでに記憶しているグループに属する端末装置の情報に、新たに検出した端末装置100の情報を加えて更新する。
 また、CPU10は、グループに属する端末装置が上記範囲から検出されなくなると(ステップS201でNO、かつステップS205でYES)、検出されなくなった端末装置をグループから削除するように、すでに記憶しているグループに属する端末装置の情報を更新する(ステップS207)。
 CPU10は、グループの更新に伴って、新たにグループに属する端末装置のコンテンツの出力に関する属性情報を取得し、RAM12に記憶する。好ましくは、CPU10は、さらに、新たにグループに属する端末装置の状態情報を取得し、RAM12に記憶する。また、CPU10は、グループの更新に伴って、グループから削除された端末装置上記属性情報をRAM12から削除してもよい。
 図5の動作に戻って、CPU10は、出力対象のコンテンツである出力コンテンツAがある場合(ステップS105でYES)、以降の動作を行なう。出力コンテンツAは、ユーザ操作によって指定されてもよい。または、CPU10は、すでに出力中のコンテンツAがある場合に当該コンテンツを出力対象の出力コンテンツAとしてもよい。
 CPU10は、出力コンテンツAに関する情報をコンテンツテーブルから読み出して、当該コンテンツに含まれる1以上の要素それぞれの要素種および/またはパラメータを取得する(ステップS111)。また、CPU10は、グループに属する端末装置それぞれの、コンテンツの出力に関する属性情報をRAM12から読み出して取得する(ステップS113)。好ましくは、ステップS113でCPU10は、さらに、グループに属する端末装置それぞれの状態情報をRAM12から読み出して取得する。そして、CPU10は、出力対象のコンテンツに含まれる1以上の要素それぞれについて、当該要素の要素種および/またはパラメータで表わされる出力条件に合致する属性情報および/または状態情報を有する端末装置、または、当該出力条件に最も近い属性情報および/または状態情報を有する端末装置を、当該要素の出力に適した出力装置として決定する(ステップS115)。
 図7および図8は、図5のステップS115の処理の一例を表わした図である。図7を参照して、出力コンテンツAに含まれるある要素について、当該要素の要素種が画像である場合(ステップS301でYES)、グループに属する1台以上の端末装置それぞれの属性情報を参照して、当該1台以上の端末装置の中から、搭載しているディスプレイ14のアスペクト比が当該要素種におけるパラメータであるアスペクト比に対して適切な端末装置(端末A)を抽出する(ステップS303)。なお、出力コンテンツAの画像とアスペクト比の一致するディスプレイを搭載した端末装置が上記グループに存在しない場合は、CPU10は、上記グループに属する1台以上の端末装置それぞれに搭載されたディスプレイであって連続して配置されている1つ以上のディスプレイを合わせて1つのディスプレイとしてアスペクト比を算出した上で、当該要素種におけるパラメータであるアスペクト比に対して適切であるか否かを判断してもよい。または、CPU10は、出力コンテンツAの画像のアスペクト比に最も近いアスペクト比のディスプレイを搭載した端末装置を抽出してもよい。または、CPU10は、グループに属する1台以上の端末装置のいずれかにガイダンスを表示するためのデータを送信し、ユーザに、当該コンテンツの画像のアスペクト比に適したアスペクト比のディスプレイを搭載した他の端末装置の準備を促してもよい。
 なお、好ましくは、CPU10は、さらに、上記ステップS305で抽出した端末装置(端末A)の状態情報より、当該端末装置が縦置きの状態であるか横置きの状態であるかを判断する。そして、たとえば出力コンテンツの画像の出力に適していないディスプレイが縦長となる縦置きの状態であった場合(ステップS305でNO)、CPU10は、上記ステップS305で抽出された端末装置(端末A)に対して、当該端末装置を横置きにすることを促すガイダンスを表示するためのデータを送信し(ステップS307)、端末Aのユーザに出力コンテンツAの画像を出力するための適したディスプレイの状態とすることを促してもよい。CPU10は、当該ガイダンスを端末装置100Aに表示してもよい。
 出力コンテンツAに、出力装置を決定していない要素が存在する場合(ステップS309でNO)、CPU10は上記ステップS301からの動作を繰り返す。
 出力コンテンツAに含まれるある要素について、当該要素の要素種が文字である場合(ステップS301でNO、かつステップS311でYES)、上記グループに属する1台以上の端末装置の中から、画像の出力装置として決定された端末装置(端末A)以外の端末装置(端末B’)を文字の出力装置として抽出する(ステップS317)。
 好ましくは、出力コンテンツAに含まれる文字データが予め規定されたデータ量以上であった場合には(ステップS313でYES)、CPU10は上記グループに属する1台以上の端末装置それぞれの属性情報を参照して、当該1台以上の端末装置の中から、ディスプレイの解像度が予め規定された解像度以上である高解像度の端末装置(端末B)を抽出する(ステップS315)。
 なお、好ましくは、CPU10は、さらに、上記ステップS315またはステップS317で抽出した端末装置(端末B)の状態情報より、当該端末装置が縦置きであるか横置きであるかを判断する。CPU10は、出力コンテンツAの文字が縦書きである場合には縦置きとすることを促し、横書きである場合には横置きとすることを促す(逆であってもよい)抽出した端末装置(端末B)にガイダンスを表示するためのデータを送信して、端末Bのユーザに出力コンテンツAの文字を出力するための適したディスプレイの状態とすることを促してもよい。CPU10は、当該ガイダンスを端末装置100Aに表示してもよい。
 図7を参照して、出力コンテンツAに含まれるある要素について、当該要素の要素種が音声である場合(ステップS301,S311でNO、かつステップS319でYES)、上記グループに属する1台以上の端末装置の中から、画像の出力装置として決定された端末装置(端末A)および文字の出力装置として決定された端末装置(端末B,B’)以外の端末装置を音声の出力装置として抽出する(ステップS321)。好ましくは、CPU10は、要素種である音声におけるパラメータがステレオ音声である場合、左右音声それぞれのための2つの端末装置を抽出する。たとえば、1台以上の端末装置が1列に配置されている場合、ステップS321でCPU10は、左右両端の2台の端末装置を、それぞれ左音声出力用、右音声出力用の出力装置として抽出する。
 なお、好ましくは、CPU10は、さらに、上記ステップS315またはステップS317で抽出した端末装置(端末B)の状態情報より、当該端末装置が縦置きであるか横置きであるかを判断する。出力コンテンツAの音声がステレオ音声である場合、CPU10は、にステレオ効果を高めるために、抽出した2台の端末装置に端末装置を横置きにすることを勧めるガイダンスを表示するためのデータを送信して、これら2台の端末装置それぞれのユーザに出力コンテンツAの音声を出力するための適した端末装置の状態とすることを促してもよい。CPU10は、当該ガイダンスを端末装置100Aに表示してもよい。
 出力コンテンツAにさらにその他の要素が含まれる場合にも、CPU10は、上記各要素について出力装置として抽出された端末装置以外の端末装置の中から、プログラムに従って当該要素の要素種および/またはパラメータで表わされる出力条件に合致する属性情報および/または状態情報を有する端末装置、または、当該出力条件に最も近い属性情報および/または状態情報を有する端末装置を、当該要素の出力に適した出力装置として決定する(ステップS323)。
 なお、図7および図8では、画像、文字、および音声の順で出力装置である端末装置を決定する方法が示されている。しかしながら、決定する要素種の順はこの順に限定されない。決定する要素種の順は予め端末装置100Aに設定されていてもよいし、ユーザが端末装置を決定する処理の前に設定してもよい。また、出力コンテンツごとに出力装置を決定する要素種の順が指定されていてもよい。また、端末装置100Aによって要素ごとに出力装置とする端末装置が決定された後に、端末装置100Aは図3のような画面に従って変更を指示するユーザ操作を受け付けて、当該操作に従って出力装置とする端末装置を変更してもよい。
 CPU10は、出力コンテンツAに含まれる1以上の要素それぞれについての出力装置を決定すると、出力装置として決定された各端末装置に当該要素を出力するためのデータと出力を指示するためのコマンドを送信することによって、当該端末装置に出力を指示する(ステップS117)。
 なお、出力コンテンツAに関する情報がコンテンツテーブルに含まれていない場合もある。すなわち、上記情報がコンテンツテーブルに含まれている場合には(ステップS109でYES)、CPU10は上記ステップS111,S113の処理を行なって出力装置を決定する。
 出力コンテンツAに関する情報がコンテンツテーブルに含まれていない場合には(ステップS109でNO)、一例として、CPU10は、コンテンツを解析して含まれる1以上の要素を特定して、要素ごとに、出力装置としてグループに属する端末装置を選択可能に提示した図3の選択画面をディスプレイ14に表示する。そして、該選択画面に基づいて出力装置を選択するユーザ指示の入力を受け付けると(ステップS119)、CPU10は、当該ユーザ指示に従って要素ごとの出力装置を決定する(ステップS115)。
 なお、出力コンテンツAに関する情報がコンテンツテーブルに含まれていない場合、他の例として、CPU10は、要素ごとに出力装置を決定する動作を行なわなくてもよい。この場合、出力コンテンツAの出力は複数の端末装置で協働して行なわれることがない。
 <実施の形態の効果>
 制御装置として機能する端末装置100において以上の制御が行なわれることによって、当該端末装置100に他の端末装置を近づけるという簡単な動作によって、自動的に出力コンテンツAが近づいた1台以上の端末装置によって協働して出力されることになる。さらに、その際に、各端末装置のコンテンツの出力に関する属性情報および/または状態情報が考慮されて、出力コンテンツAに含まれる1以上の要素それぞれの出力に最適な属性情報および/または状態情報を有する端末装置が当該要素の出力装置として決定される。そのため、本制御装置である端末装置100では、コンテンツを1台以上の端末装置で協働して出力する際に、該コンテンツを効果的に、また高品質に出力させることができる。
 [第2の実施の形態]
 なお、以上の説明では、コンテンツの出力装置としての端末装置100の制御を、端末装置100自身が行なうものとしている。しかしながら、制御装置は端末装置100とは別個の、独立した装置であってもよい。
 たとえば、コンテンツを出力可能な端末装置100がタブレット端末であって、制御装置がスマートフォンであってもよい。この場合、出力コンテンツAは、制御装置であるスマートフォンのメモリに格納されているコンテンツであってもよいし、グループ化された1台以上の端末装置100のいずれかのメモリに格納されているコンテンツであってもよいし、制御装置であるスマートフォンまたは端末装置100に対するユーザ操作で指定されたコンテンツをスマートフォンがインターネットなどのネットワークを経由してサーバ等の他の装置から取得するものであってもよい。
 このような場合であっても、第1の実施の形態と同様に、コンテンツを出力可能な1台以上の端末装置で協働して、1つのコンテンツを、効果的に、また高品質に出力することができる。
 <その他>
 開示された特徴は、1つ以上のモジュールによって実現される。たとえば、当該特徴は、回路素子その他のハードウェアモジュールによって、当該特徴を実現する処理を規定したソフトウェアモジュールによって、または、ハードウェアモジュールとソフトウェアモジュールとの組み合わせによって実現され得る。
 上述の動作を制御装置、また制御装置である端末装置100のCPU10に実行させるための、1つ以上のソフトウェアモジュールの組み合わせであるプログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD-ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
 なお、本開示にかかるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本開示にかかるプログラムに含まれ得る。
 また、本開示にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本開示にかかるプログラムに含まれ得る。
 提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 10 CPU、11 ROM、12 RAM、13 スピーカ、14 ディスプレイ、15 入力装置、16 第1通信装置、17 第2通信装置、18 センサ、100,100A,100B,100C 端末装置、101 検出部、102 属性入力部、103,109 格納部、104 属性取得部、105 パラメータ取得部、106 決定部、107 出力制御部、108 コンテンツ入力部、110 指示入力部、111 グループ管理部、121 属性記憶部、122 コンテンツテーブル記憶部。

Claims (6)

  1.  コンテンツを出力するための出力部を備えた複数の出力装置を制御可能な制御装置であって、
     出力される出力コンテンツに含まれる1つ以上の各要素の要素種またはパラメータと、前記出力装置が有する属性情報または状態情報とに基づいて、前記複数の出力装置の中から、前記各要素のそれぞれを出力するのに適した出力装置を決定するための決定部と、
     前記出力コンテンツに含まれる前記1つ以上の各要素の出力に必要なデータを前記決定部により決定された各出力装置に送信し、該各出力装置に該データの少なくとも一部を出力するよう指示するための出力制御部とを備える、制御装置。
  2.  前記要素種は、画像、文字、および音声の少なくとも1つを含み、
     前記パラメータは、前記要素種が画像の場合にはアスペクト比を含み、前記要素種が文字の場合には文字数および文字方向の少なくとも1つを含み、前記要素種が音声の場合にはステレオの指定およびモノラルの指定の少なくとも1つを含む、請求項1に記載の制御装置。
  3.  前記属性情報は、前記出力装置の前記要素種の出力能力を含み、
     前記状態情報は、前記出力装置の向きおよび周辺の環境を表わす値の少なくとも1つを含む、請求項1または2に記載の制御装置。
  4.  請求項1~3のいずれかに記載の制御装置を搭載した、コンテンツを出力可能な出力装置であって、
     コンテンツを出力するための出力部と、
     当該出力装置から、予め規定された範囲内に存在する出力装置を検出するための検出部とを備え、
     前記決定部は、前記検出部によって検出された前記予め規定された範囲内に存在する出力装置が有する属性情報または状態情報と、前記出力コンテンツに含まれる1つ以上の各要素の要素種またはパラメータとに基づいて、前記検出部によって検出された1台以上の出力装置の中から、前記出力コンテンツに含まれる1つ以上の各要素のそれぞれを出力するのに適した出力装置を決定する、出力装置。
  5.  前記検出部によって前記予め規定された範囲に存在することが検出された1台以上の出力装置をグループ化する処理を行なうためのグループ管理部をさらに備え、
     前記グループ管理部は、前記グループ化する処理によってグループ化された出力装置が前記検出部によって前記予め規定された範囲に存在することが検出されなくなると、前記存在することが検出されなくなった出力装置を前記グループ化から解除する、請求項4に記載の出力装置。
  6.  1台以上の出力装置で、1つ以上の要素を含む出力コンテンツを出力する方法であって、
     前記1つ以上の要素それぞれの要素種またはパラメータと、前記出力装置それぞれの有する属性情報または状態情報とに基づいて、前記1台以上の出力装置の中から、前記要素のそれぞれを出力するのに適した出力装置を決定するステップと、
     前記出力コンテンツに含まれる前記1つ以上の各要素の出力に必要なデータを前記決定するステップにおいて決定された各出力装置に送信し、該各出力装置に該データの少なくとも一部を出力するよう指示するステップとを備える、出力方法。
PCT/JP2016/075414 2015-09-03 2016-08-31 制御装置、出力装置、および出力方法 WO2017038852A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017538063A JPWO2017038852A1 (ja) 2015-09-03 2016-08-31 制御端末および出力方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015173875 2015-09-03
JP2015-173875 2015-09-03

Publications (1)

Publication Number Publication Date
WO2017038852A1 true WO2017038852A1 (ja) 2017-03-09

Family

ID=58187673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075414 WO2017038852A1 (ja) 2015-09-03 2016-08-31 制御装置、出力装置、および出力方法

Country Status (2)

Country Link
JP (1) JPWO2017038852A1 (ja)
WO (1) WO2017038852A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134951A (ja) * 2006-11-29 2008-06-12 Nippon Telegr & Teleph Corp <Ntt> 広告提供方法および広告提供システム
JP2009260486A (ja) * 2008-04-14 2009-11-05 Mitsubishi Electric Corp 受信機
JP2012009958A (ja) * 2010-06-22 2012-01-12 Sharp Corp シンク機器、シンク機器の制御方法、プログラム、及び、記録媒体
JP2012098835A (ja) * 2010-10-29 2012-05-24 Casio Comput Co Ltd 画像表示装置およびプログラム
JP2012174013A (ja) * 2011-02-22 2012-09-10 Fujitsu Ltd 表示システム、情報装置、表示装置、画像選択プログラム及び表示方法
JP2015036953A (ja) * 2013-08-16 2015-02-23 沖電気工業株式会社 情報処理装置、プログラム、および情報提示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4443989B2 (ja) * 2003-09-10 2010-03-31 パナソニック株式会社 サービス要求端末装置
JP2006309522A (ja) * 2005-04-28 2006-11-09 Kobe Steel Ltd コンテンツ配信装置,コンテンツ配信方法,コンテンツ配信プログラム
JP2009049498A (ja) * 2007-08-14 2009-03-05 Sony Corp 制御端末、情報機器、コンテンツ提供装置、機器制御システム、機器選択方法、及びプログラム
JP6073664B2 (ja) * 2012-12-07 2017-02-01 株式会社東芝 コンテンツ再生装置及びコンテンツ再生プログラム
JP6124005B2 (ja) * 2013-06-17 2017-05-10 コニカミノルタ株式会社 表示制御装置、表示システム、表示制御プログラム、表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134951A (ja) * 2006-11-29 2008-06-12 Nippon Telegr & Teleph Corp <Ntt> 広告提供方法および広告提供システム
JP2009260486A (ja) * 2008-04-14 2009-11-05 Mitsubishi Electric Corp 受信機
JP2012009958A (ja) * 2010-06-22 2012-01-12 Sharp Corp シンク機器、シンク機器の制御方法、プログラム、及び、記録媒体
JP2012098835A (ja) * 2010-10-29 2012-05-24 Casio Comput Co Ltd 画像表示装置およびプログラム
JP2012174013A (ja) * 2011-02-22 2012-09-10 Fujitsu Ltd 表示システム、情報装置、表示装置、画像選択プログラム及び表示方法
JP2015036953A (ja) * 2013-08-16 2015-02-23 沖電気工業株式会社 情報処理装置、プログラム、および情報提示方法

Also Published As

Publication number Publication date
JPWO2017038852A1 (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
US20190208230A1 (en) Live video broadcast method, live broadcast device and storage medium
EP2797293B1 (en) Terminal device and content displaying method thereof, server and controlling method thereof
US20080030456A1 (en) Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device
CA2838878C (en) Method and apparatus for controlling contents in electronic device
EP3070681A1 (en) Display control device, display control method and program
US20150193911A1 (en) Display control device, display control system, and display control method
KR20170125618A (ko) 증강현실 플랫폼을 통해 가상 영역에 표시할 컨텐츠를 생성하는 방법 및 이를 지원하는 전자 장치
EP3346375B1 (en) Program, recording medium, content provision device, and control method
US20140229823A1 (en) Display apparatus and control method thereof
KR101912969B1 (ko) 화상 출력 장치, 화상 출력 방법 및 프로그램
CN111352560B (zh) 分屏方法、装置、电子设备和计算机可读存储介质
KR20210095747A (ko) 무주의 조건 동안 그래픽 사용자 인터페이스에 영향을 미치는 정보의 상태 변화 연기
JP6640595B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101609064B1 (ko) 증감 현실을 이용한 인터랙티브 설명서
EP3493553A1 (en) Attention object-related information providing system and information providing method
KR102138835B1 (ko) 정보 노출 방지 영상 제공 장치 및 방법
WO2017038852A1 (ja) 制御装置、出力装置、および出力方法
WO2022114177A1 (ja) 表示装置、表示方法及びプログラム
CN111221444A (zh) 分屏特效处理方法、装置、电子设备和存储介质
US20220345787A1 (en) Voice processing method and apparatus, electronic device, and computer readable storage medium
EP3089014B1 (en) Information processing system, information processing method, and program
US12075000B2 (en) Application extension program, information processing apparatus, and method
JP2014096057A (ja) 画像処理装置
JP2017049474A (ja) 制御装置、出力装置、および出力方法
EP4300981A1 (en) Content preparation devices and methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16841882

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2017538063

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16841882

Country of ref document: EP

Kind code of ref document: A1