WO2013150932A1 - 操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム - Google Patents

操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム Download PDF

Info

Publication number
WO2013150932A1
WO2013150932A1 PCT/JP2013/058941 JP2013058941W WO2013150932A1 WO 2013150932 A1 WO2013150932 A1 WO 2013150932A1 JP 2013058941 W JP2013058941 W JP 2013058941W WO 2013150932 A1 WO2013150932 A1 WO 2013150932A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
terminal device
operation terminal
display device
trigger
Prior art date
Application number
PCT/JP2013/058941
Other languages
English (en)
French (fr)
Inventor
毅 金子
伊藤 典男
正宏 塩井
久雄 熊井
嬋斌 倪
敦稔 〆野
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2013150932A1 publication Critical patent/WO2013150932A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content

Definitions

  • the present invention relates to an operation terminal device that can receive content from a content display device that receives the content and display the content.
  • information provided from a broadcasting station such as a broadcast program on the TV itself or related data can be taken into a smartphone or tablet terminal at hand, and the information contained therein can be used for various purposes such as surfing the Internet. It is hoped that it will be preserved.
  • cooking recipes are provided as data broadcasts (text information) for cooking programs
  • travel information is provided as data broadcasting for travel programs.
  • a remote control In order to access such information, generally, a remote control is used to display a data broadcast or the like on a TV or follow a link.
  • the information prepared by data broadcasting does not necessarily match the information desired by the user, and the operability of the remote control is poor, making it difficult to efficiently obtain the desired information.
  • the related content for the second screen of broadcasting stations and communication carriers is usually that there is little real-time information for broadcasting content. Therefore, if the TV screen itself contains the information you want, you can only take notes at hand or shoot the TV screen with a camera, but since the broadcast content is a video, get clear image information at the right time It was difficult.
  • the object of the present invention is to use the operation terminal device at hand as a start trigger when the user finds information desired in the content while viewing the content on the content display device. It is to provide an operation terminal device or the like to which content is appropriately transferred.
  • the operation terminal of the present invention is An operation terminal device capable of transmitting a content to a content display device that receives the content and displaying the content, Using the movement of the operation terminal device as a start trigger, the transmission of the content being received or displayed from the start trigger is started, and the transmitted content is received between the movement of the operation terminal device and the end trigger. It is characterized by comprising control means for performing control for storing the data.
  • the content storage method of the present invention includes: A content storage method of an operation terminal device capable of transmitting a content to a content display device that receives the content and capable of displaying the content, Using the movement of the operation terminal device as a start trigger, the transmission of the content being received or displayed from the start trigger is started, and the transmitted content is received between the movement of the operation terminal device and the end trigger. It is characterized by preserve
  • the program of the present invention is A program that can be transmitted to a content display device that receives content and that is executed in an operation terminal device capable of displaying the content, Using the movement of the operation terminal device as a start trigger, the transmission of the content being received or displayed from the start trigger is started, and the transmitted content is received between the movement of the operation terminal device and the end trigger. It is characterized by realizing the function of saving.
  • the content display device of the present invention is A content display device capable of receiving and displaying content, Using the movement of the connected operation terminal device as a start trigger, the received content or the displayed content is transmitted from the start trigger or stored in the operation terminal device or a predetermined storage device, or stored in the content display device itself. It is characterized by that.
  • the content transfer system of the present invention is A content transfer system including a content display device that receives content and an operation terminal device that can receive the content from the content display device and display the content,
  • the operation terminal device Detecting means for detecting movement of the operation terminal device;
  • a start trigger detecting means for detecting a start trigger when movement of the operation terminal device is detected by the detecting means;
  • An end trigger detecting means for detecting an end trigger after the start trigger is detected;
  • Content receiving means for receiving content from the content display device until the end trigger is detected after the start trigger is detected;
  • Content storage means for storing the received content; It is characterized by providing.
  • the operation terminal device of the present invention using the movement of the operation terminal device as a start trigger, the transmission of the content being received or displayed from the start trigger is started, and from the movement of the operation terminal device to the end trigger.
  • the transmitted content received is stored. Therefore, when the user wants to save the content, the storage of the content is started at the timing when the operating terminal device at hand is moved, and the storage of the content is automatically ended after a predetermined time has elapsed.
  • the content transfer system 1 includes a content display device 10 and an operation terminal device 20.
  • the content display device 10 is a device capable of displaying various contents.
  • the content display device 10 can receive terrestrial digital broadcast, digital satellite broadcast, and various broadcast contents from the outside and display video data extracted from the broadcast contents. It is.
  • video data decoded from content recorded in a recording medium can be displayed, or communication content received via a network can be displayed.
  • the operation terminal device 20 is a device capable of displaying content at the user's hand, and is also used as an operation terminal in this embodiment.
  • the operation terminal device 20 is, for example, a portable terminal, and includes a tablet terminal, a computer, a mobile phone (smart phone), and the like.
  • the content display device 10 and the operation terminal device 20 are connected wirelessly.
  • Bluetooth registered trademark
  • a wireless LAN such as IEEE802.11a / b / g / n, or the like is connected by a method capable of direct communication such as infrared communication.
  • a connection method may be used in which each is connected to a wired LAN and belongs to the same network.
  • the content display device 10 includes a control unit 100, a broadcast receiving unit 110, a sensor unit 120, a communication unit 130, a storage unit 140, an output unit 150, and an operation unit 160.
  • the control unit 100 is a functional unit for controlling the entire content display device 10.
  • the control unit 100 realizes various functions by reading and executing various programs stored in the storage unit 140, and is configured by, for example, a CPU (Central Process Unit).
  • a CPU Central Process Unit
  • the broadcast receiving unit 110 is a functional unit for receiving broadcast content from a broadcast station.
  • Broadcast content is multimedia content including moving images, still images, text information, and the like, and receives, for example, terrestrial digital broadcast, digital satellite broadcast, cable broadcast, IP multicast broadcast through a network line, and the like.
  • the sensor unit 120 is a sensor unit for acquiring the environment of the content display device 10 and user information.
  • an environment captured from an image captured by a CCD camera is detected by image recognition processing, and various environments and user information are detected by illuminance, a microphone, an infrared ray, a temperature sensor, and the like. It is also used when detecting a start trigger and an end trigger described later.
  • the communication unit 130 is a functional unit for communicating with other terminal devices. In the present embodiment, it functions as an interface unit for communicating with the operation terminal device 20.
  • the operation terminal device 20 includes, for example, a wireless LAN such as IEEE 802.11a / b / g / n, Bluetooth (registered trademark), infrared communication, Zigbee (registered trademark), wireless USB using UMB (Ultra Wide Band), wireless Communication can be performed by wireless connection such as IEEE 1394 or wireless HDMI (registered trademark), or by wired connection such as USB, IEEE 1394, or HDMI.
  • the storage unit 140 is a functional unit that stores various programs and various data necessary for the operation of the content display device 10.
  • the storage unit 140 includes, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.
  • the output unit 150 is a function unit for reproducing and displaying received content data and outputting sound in the content display device 10.
  • the display device may be an LCD, and the audio output device may be a speaker.
  • the operation unit 160 is a functional unit for receiving an operation input from the user.
  • a button or a touch panel provided on the content display device 10 a remote control device connected to the content display device 10 by infrared communication, or the like is used.
  • the operation terminal device 20 may realize the function.
  • the operation terminal device 20 includes a control unit 200, a sensor unit 220, a communication unit 230, a storage unit 240, a temporary storage unit 245, an output unit 250, and an operation unit 260.
  • the control unit 200 is a functional unit for controlling the entire operation terminal device 20.
  • the control unit 200 implements various functions by reading and executing various programs stored in the storage unit 240, and includes, for example, a CPU (Central Process Unit).
  • a CPU Central Process Unit
  • the sensor unit 220 is a sensor unit for detecting an environment or the like in the operation terminal device 20.
  • it can be configured by devices such as a GPS, an acceleration sensor, an illuminance sensor, a microphone, and a temperature sensor.
  • the communication unit 230 is a functional unit for communicating with other terminal devices. In the present embodiment, it functions as an interface unit for communicating with the content display device 10. The same protocol and communication method as the communication unit 130 of the content display device 10 are used.
  • the storage unit 240 is a functional unit that stores various programs and various data necessary for the operation of the operation terminal device 20.
  • the storage unit 240 includes, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like. Further, the video data temporarily stored in the temporary storage unit 245 is saved by a user operation.
  • the temporary storage unit 245 is a functional unit for temporarily storing content (for example, video data) before being stored in the storage unit 240.
  • content for example, video data
  • the description will be made separately from the storage unit 240.
  • the storage unit 240 may be divided into areas and configured as the same device.
  • the output unit 250 reproduces / reproduces the content received by the communication unit 230, the output result from the program, the operation input data from the operation unit 260, the state thereof, and the like in response to an instruction from the control unit 200. It is a functional unit for displaying and outputting sound.
  • the display device may be an LCD, and the audio output device may be a speaker.
  • the operation unit 260 is a functional unit for receiving an operation input from the user.
  • it includes a device that detects a user's operation input using a touch panel, a soft button displayed on the output unit 250, a hardware button, and the like.
  • a video capture preparation signal is transmitted at regular intervals (step S102).
  • the video capture preparation signal is described as being transmitted to an operation terminal device registered in advance, but may be transmitted as a broadcast to operation terminal devices in a predetermined range. .
  • step S104 when a confirmation signal is received from the operation terminal device 20, it is determined that the operation terminal device 20 is ready to capture an image (step S104; Yes). After that, it waits until a request signal is received from the operation terminal device 20 (step S106; No).
  • step S106 When the request signal is received from the operation terminal device 20 (step S106; Yes), the content display device 10 starts transmitting video data extracted from the content to the operation terminal device 20 (step S108). Then, the video data is transmitted by receiving a stop signal from the operation terminal device (step S110; Yes), or when the set time has elapsed (step S112; Yes), the transmission of the video data is terminated (step S114).
  • step S102 step S116; No ⁇ step S102.
  • step S204 when the operation terminal device 20 receives a video capture preparation signal from the content display device 10 (step S202; Yes), it starts video capture preparation (step S204). For example, a process of starting an application for capturing video and setting the standby mode is executed.
  • a confirmation signal is transmitted from the operation terminal device 20 to the content display device 10 (step S206).
  • the content display device 10 is in a state in which video data can be transmitted to the operation terminal device 20.
  • a request signal is transmitted to the content display device 10 (step S210).
  • the sensor unit 220 detects the movement of the operation terminal device 20 to obtain the start trigger.
  • the received video data is stored in the temporary storage unit 245, that is, the capture operation is started (step S216).
  • step S216 when the end trigger is detected (step S216), the video data is temporarily stored, that is, the capture is ended (step S222). Although details of the end trigger will be described later, in FIG. 4, when the video data reception stop is selected (step S218; Yes) or when a set time has passed (step S218; No ⁇ step S220; Yes). ), An end trigger is detected. Along with the end of the temporary storage, a stop signal is transmitted to the content display device 10 as necessary (step S224).
  • step S114 it is not always necessary to send a stop signal.
  • the transmission of the video data ends (step S114). In this case, there is no need to bother to send a stop signal.
  • step S112 For example, if the set time in step S112 is set to 5 seconds and the set time in step S224 is set to 3 seconds, even if the content display device 10 fails to receive the stop signal, the video data continues to be transmitted. Can be prevented.
  • the operation terminal device 20 reads and displays the temporarily stored video data (Step S232; Yes ⁇ Step S234).
  • video data stored in the temporary storage unit 245 is displayed, or video data stored in the temporary storage unit 245 and the storage unit 240 is displayed. New video data may be displayed.
  • step S236 it is determined whether or not to save the video data.
  • the video data is to be saved (step S236; Yes)
  • the video data is saved from the temporary storage unit 245 to the storage unit 240.
  • step S232 if the video data is not read for a predetermined time in step S232, it is determined that the video data is not to be saved (step S232; No ⁇ step S240; Yes), and the video data stored in the temporary storage unit 245 is deleted. (Step S242).
  • step S2366 when it is not determined that the video data is stored or when it is determined that it is not necessary to store the video data (step S236; No ⁇ step S240; Yes), the temporary storage unit 245 stores the video data.
  • the stored video data is erased (step S242).
  • the process goes through step S240.
  • the video data in the temporary storage unit 245 may be immediately deleted (step S236; No-> step S242).
  • Trigger detection method Various methods are conceivable as a start trigger that is a timing for starting capture and an end trigger that is a timing for ending capture in the above-described operation processing. Hereinafter, a method for detecting the start trigger and the end trigger will be described.
  • start trigger detection [4.1.1 Detection by operation terminal device]
  • a start trigger is detected using the operation terminal device 20.
  • it detects as a start trigger by detecting the movement of the operation terminal device 20.
  • a method using an input value change other than the touch of the operation terminal device 20 can be considered.
  • detection of some change becomes a start trigger.
  • the state of no change refers to a state in which the state of the operation terminal device 20 does not change, but not only a case in which no change occurs at all, but a state in which only a change of a predetermined ratio or less is detected. . Specifically, when the value acquired by the sensor unit changes only below a predetermined threshold, it is determined that the operation terminal device 20 is unchanged.
  • the content display device 10 Since the basic condition of operation is that the user is watching TV, the content display device 10 first outputs a signal indicating the ready state to the operation terminal device 20. As a result, only the operation terminal device 20 capable of receiving a signal from the content display device 10 can be operated, so that unnecessary operation of the operation terminal device 20 can be prevented, and the content display device 10 side is also in the vicinity. When the operation terminal device 20 is not present, it is efficient because operations such as data transmission are not required.
  • the sensor unit 220 may be configured by an acceleration sensor.
  • a start trigger is detected when the operation terminal device 20 moves or is moved, and a request signal is transmitted to the content display device 10.
  • data can be captured at an earlier stage than the operation based on the touch operation in the operation terminal device 20, it is possible to capture the content at the moment the user thinks.
  • the position measurement of the operation terminal device 20 using a wireless LAN or GPS can detect the movement of the operation terminal device 20 and can detect the start trigger, like the acceleration sensor. In this case, the same effect as that obtained when the acceleration sensor is used can be obtained.
  • an illuminance sensor can be indirectly used for motion detection (start trigger detection) of the operation terminal device 20. This is because the illuminance change can occur even if the angle of the operation terminal device 20 is slightly changed. In this case, for example, there is a possibility that the data transfer operation starts even if the user brings his hand close to the operation terminal device 20, and there is a possibility that the data can be captured at an earlier timing than the acceleration sensor.
  • the operation terminal device 20 may further include a voice input unit, and detection of a start trigger using voice input is also conceivable.
  • the user's voice can be registered in advance, or the operation can be controlled by input words (“Ah!”, “Oh!”, Etc.).
  • a start trigger may be detected by detecting a motion by detecting a temperature sensor (temperature) or a humidity sensor (humidity).
  • a mechanism for detecting whether or not the user has touched the grip portion of the operation terminal device 20 can be included and used as a start trigger.
  • the operation terminal device 20 may have a camera unit, and the camera may be used for motion detection (start trigger detection). For example, when the operation terminal device 20 is left unattended, it is considered that there are many cases where a ceiling image or a table surface image is captured, so that a change from these images can be detected.
  • the state of the sensor unit 220 may be acquired using a function prepared by the OS or SDK.
  • Android OS is used for the operation terminal device 20
  • Android SDK supports various sensors.
  • a SensorManager instance is acquired by getSystemService (SENSOR_SERVICE).
  • the sensors usable in the terminal are examined by getSensorList ().
  • the listener is registered by specifying (listener listener instance, sensor type list, reception frequency) in the argument of registerListener ().
  • (4) Implement onSensorChanged () as a method for the registered listener and implement the process.
  • the definition of the axis in the sensor event is the X axis for the horizontal right direction, the Y axis for the vertical upward direction, and the Z axis for the vertical vertical direction.
  • the sensor detection value is obtained. For example, if the process is a data transfer request to the content display device 10, data is obtained according to the accuracy of the sensor equipped in the operation terminal device 20. Can be transferred.
  • onSensorChanged () it is determined whether or not a fixed time has elapsed, and if it is No, no process can be performed.
  • a threshold for performing a request operation on the detection value of the sensor.
  • the threshold value for example, by setting the threshold value as a variable, the user can set the sensitivity.
  • jsWaffle is an open source framework that can create an Android application using WEB technology such as HTML / CSS / JavaScript (registered trademark).
  • WEB technology such as HTML / CSS / JavaScript (registered trademark).
  • a unique API is prepared to enable access.
  • GPS ... droid.getCurrentPosition (), droid.watchPosition (), doroid.clearWatchPosition () Tilt ... droid.watchAccel (callback), droid.clearAccel () Shake ... droid.watchShake (fn)
  • GPS is “latitude, longitude, accuracy, altitude”
  • inclination is “X, Y, Z”
  • shake is on / off detection using an inclination sensor.
  • the XYZ axes of inclination are opposite to those in the case of Android SDK.
  • droid.watchAccel function (x, y, z) ⁇ (processing) ⁇ is moved to start sensor monitoring.
  • monitoring is stopped with droid.clearAccel (), and a data request is transmitted to the content display device 10 .
  • sensor monitoring is started again with droid.watchAccel.
  • the detection determination condition may be “x> 0 + a”, “y> 0 + a”, or “z ⁇ 10 ⁇ a”.
  • the state in which the operation terminal device 20 is set up with the default upper part for example, the manufacturer sets that the power button is installed
  • the detection determination condition is “y> 0” and “z ⁇ 10”, it is possible to detect an operation in which the user is standing the operation terminal device 20.
  • the process may proceed to (3).
  • Illuminance sensor information Sensor.TYPE_LIGHT international unit (SI) Lux value
  • Temperature sensor information Sensor.TYPE_AMBIENT_TEMPERATURE Celsius temperature value
  • Humidity sensor information Sensor.TYPE_RELATIVE_HUMIDITY Percentage of relative humidity
  • Angular velocity sensor information Sensor Angular velocity (radians / second) for each of the three orthogonal axes (x, y, z) centered on the terminal with .TYPE_GYROSCOPE Can be obtained.
  • the threshold setting for processing requires different settings for each sensor. For example, in the case of illuminance, the sensor is operated only when the change is 10 lux or more, or the temperature is 10 ° C. or more or the humidity is 10% or more. It may be considered that “determines that the terminal has been moved intentionally” if there is a change of 10 degrees or more in any axis in the case of angular velocity, etc.
  • a sensor unit 120 that detects the environment may detect a user's gesture (for example, movement of a specific hand) and use it as a trigger.
  • the sensors are all installed to monitor the user or the viewing environment of the user, the sensors are generally provided in substantially the same direction as the direction in which the display device as the display unit presents video. It is.
  • gesture recognition can be performed by using, for example, a camera, a microphone, infrared rays, or the like.
  • a camera for example, a camera, a microphone, infrared rays, or the like.
  • gesture recognition for example, if infrared rays are used, it is preferable to install a radiating device and a sensor for detecting the reflection.
  • the sensor unit 120 of the content display device 10 detects a user's operation (unspecified or specific) after the operation terminal device 20 is ready. Then, the control unit of the content display device 10 starts storing the broadcast content as video data.
  • the operation terminal device 20 is notified of “stored” via the communication unit 130. “There is stored content in the television receiving terminal” is displayed on the display unit of the operation terminal device 20.
  • step S236 it is determined whether or not video data has been called from the operation unit 260 in the operation terminal device 20, and substantially the same processing as in the flowchart is executed.
  • the data stored in the temporary storage (of the content display device 10) is erased from the operation terminal device 20 to the content display device 10.
  • the operation terminal device 20 sends a data request to the content display device 10 and streaming is performed. This is started and stored in the storage unit 240 of the operation terminal device 20.
  • the data storage instruction is sent from the operation terminal device 20, it may be recorded in the content display device 10.
  • the frame image in the video data is picked up and sent to the operation terminal device 20, and when the operation terminal device 20 also receives the image, the image is displayed on the screen. It's also good.
  • This embodiment has a feature that it is easy to obtain information desired by a user by starting a capture operation at an arbitrary timing.
  • the capture operation since there is a case where the capture operation is not intended by the user, it is necessary to set several seconds to several hours (for example, 30 seconds) as the set time, and to end the capture after the set time has elapsed. Therefore, the end trigger is detected after the set time has elapsed.
  • an operation instruction from the operation terminal device 20 may be used as an end trigger.
  • an operation from the user is performed and a frame image is extracted and displayed from the video data in the temporary storage unit 245, if the capture is still continued, a “Stop Capture” or “Capture Continue” button is displayed along with the status display. indicate. Then, the capture operation may be controlled by a user instruction.
  • the scene data change timing of the video data may be used as the end trigger. That is, image data (face / object recognition, chromaticity analysis, etc.) is stored while storing video data that is captured and temporarily stored, and a scene change is detected. Then, the capture may be terminated at the timing of the scene change.
  • image data face / object recognition, chromaticity analysis, etc.
  • audio and subtitles are often added to information as information, so for example, if it is audio, the timing of changes in multiplexed audio and stereo, detection of changes due to voices such as live conditions and announcements, etc.
  • changes in content may be detected by character recognition, and their timing may be detected as an end trigger.
  • an end trigger may be detected from the metadata or the like.
  • the channel (broadcast station) being received when the channel (broadcast station) being received is changed, it may be detected as an end trigger. Further, when the program being viewed is changed to the next program after completion, the change can be known from the EPG information or the like, so that the end trigger may be detected therefrom.
  • the end trigger may be detected based on the state of the sensor unit 220 of the operation terminal device 20. For example, if the operation terminal device 20 is shaken three times, the capture is completed (an end trigger is detected), an end trigger is detected by a specific screen touch (for example, writing an X mark, etc.), or the numerical value of the acceleration sensor Detects the end trigger when there is no change for a certain period of time (several tens of seconds, etc.), detects the end trigger when the sensor part is covered with the illuminance sensor, or monitors the sensor with the above-mentioned onSensorChanged () When the monitoring time is measured, the end trigger is detected if there is nothing for several tens of seconds, or the capture operation may be ended in such a case.
  • the sensor unit 120 on the content display device 10 side may be used. For example, after the status display during capture is displayed on the output unit 150 on the content display device 10 side, when it is detected that the user points the palm of the hand toward the screen with a gesture, the capture is ended (an end trigger is detected). Alternatively, a specific button of a normal remote controller may be assigned and the capture may be terminated (detection of an end trigger) by a user instruction input.
  • FIG. 6A and 6B are diagrams showing the state of the content display device 10 in FIG. 6A and the state of the operation terminal device 20 in FIG. 6B.
  • a video capture preparation signal is transmitted to the operation terminal device 20 at the timing when the content display device 10 is turned on.
  • the operation terminal device 20 enters a video capture preparation state.
  • “capture preparation complete” is displayed on the display screen of the operation terminal device 20.
  • FIG. 7 is a diagram illustrating a case where a start trigger for starting capture is detected. Since the transfer of the video data has been started, “capturing” is displayed on the content display device 10 in FIG. The operation terminal device 20 in FIG. 7B displays “Capture!” Since the temporary storage of the video data has started.
  • FIG. 8 shows a state where the capture state is shown as it is. That is, video data is transferred from the content display device 10 to the operation terminal device 20, and the video data is temporarily stored in the operation terminal device 20.
  • the content display device 10 displays that capture is in progress.
  • FIG. 8B the capture is in progress and a capture stop confirmation display is displayed. When the “stop” button is touched by the user, an end trigger is detected and capture is stopped.
  • FIG. 9 is a diagram illustrating a state after the end trigger is detected.
  • the operation terminal device 20 displays a list of captured times.
  • the list display may be time display as described above, or a part of the video data may be displayed as a list.
  • a part of the currently captured video data is displayed as a still image.
  • appropriate still image data is extracted from any one of the first part, the intermediate part, and the last part of the captured time.
  • the captured video data is saved in the storage unit 240.
  • the content display device 10 continues to display the content (FIGS. 9A and 10A). For example, even if the scene is switched as shown in FIG. 11A, the operation terminal device 20 can continue the operation as shown in FIG. 11B.
  • a start trigger for example, in order to detect the movement of the operation terminal device at the timing of the output change of the sensor unit, the user operates the operation terminal device to display on the display unit. Transfer of content (video data) can be started earlier than the confirmation timing. Therefore, the possibility that the content information at the moment when the user feels it is desired to be taken in is overwhelmingly high.
  • image quality deterioration due to camera shake or screen transition is less than when the user captures the display screen of the content display device with a camera. A clear image can be handled on the operation terminal device.
  • the data captured by the operation terminal device is video data, and it is possible to extract the frame image as a still image from it, the frame image including the desired information can be viewed and confirmed as a still image group. It is possible to find information without panic.
  • the video data is described as being temporarily stored in the temporary storage unit 245.
  • the video data may be directly stored in the storage unit 240. That is, when the start trigger is detected, the video data is stored directly in the storage unit 240.
  • the content is mainly described in the embodiment stored in the operation terminal device 20, but may be stored in another device or the like.
  • a file server connected to a network, another computer, NAS (Network Attached Storage), or a cloud (external network) may be used.
  • a configuration may be adopted in which temporary storage is not performed by an operation.
  • FIG. 8B “Continue” and “Cancel” buttons are displayed.
  • the configuration may be such that the data is stored in the storage unit 240 instead of the temporary storage unit 245.
  • the content received by the content display device 10 has been described by taking broadcast content received via a broadcast wave as an example.
  • other content such as a DVD or Blu-ray (registration) is described.
  • the present invention can be applied to various contents such as multimedia contents recorded on a recording medium such as a trademark and communication contents (for example, IP multicast broadcast) received via the Internet or the like.
  • the program that operates in each device in the embodiment is a program that controls the CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments.
  • Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, then stored in various ROM or HDD storage devices, and read and corrected by the CPU as necessary. • Writing is performed.
  • a recording medium for storing the program a semiconductor medium (for example, a ROM, a nonvolatile memory card, etc.), an optical recording medium / a magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), MO ((Magneto Optical Disc), MD (Mini Disc), CD (Compact Disc), BD, etc.), magnetic recording medium (for example, magnetic tape, flexible disk, etc.), etc.
  • the loaded program is executed.
  • the program when distributing to the market, can be stored in a portable recording medium for distribution, or transferred to a server computer connected via a network such as the Internet.
  • a server computer connected via a network such as the Internet.
  • the storage device of the server computer is also included in the present invention.
  • each device in the above-described embodiment may be realized as an LSI (Large Scale Integration) which is typically an integrated circuit.
  • LSI Large Scale Integration
  • Each functional block of each device may be individually chipped, or a part or all of them may be integrated into a chip.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 利用者がコンテンツ表示装置においてコンテンツ視聴中に、コンテンツ内に欲しい情報を見つけたとき、手元にある操作端末装置を用いて開始トリガとすることで、コンテンツが適切に転送される操作端末装置等を提供する。コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置であって、操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する。

Description

操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム
 本発明は、コンテンツを受信するコンテンツ表示装置からコンテンツを受信し、当該コンテンツを表示可能な操作端末装置等に関する。
 従来から、テレビ等の放送や、通信の融合に向けた取り組みが模索されている中で、セカンドスクリーンとして、テレビ視聴中に番組コンテンツに関連する通信コンテンツを手元のスマートフォンやタブレット端末に表示して、番組視聴をより楽しくする映像システムが様々検討されている。一例として、映像コンテンツに付随するコンテンツ情報を、テレビジョン番組を視聴する端末以外の端末においても簡単に利用できるようにする技術等が開示されている(特許文献1参照)。
 その場合、テレビ上の放送番組自体や関連データ等の放送局から提供される情報を、例えば、手元のスマートフォンやタブレット端末に取り込み、そこに含まれる情報をネットサーフィン等、様々な用途に活用できるよう保存することが望まれている。
特開2010-273060号公報
 近年、地上波デジタル放送等において提供されるコンテンツには種々の情報が含まれている。例えば、料理番組であれば料理のレシピがデータ放送(文字情報)として提供されたり、旅番組であれば旅情報がデータ放送として提供されたりしている。
 これらの情報にアクセスするためには、一般的に、リモコンを使って、TV上にデータ放送等を表示したり、リンクをたどったりする。しかし、データ放送で準備されている情報が必ずしも利用者の欲しい情報とは一致していない上、リモコンの操作性が悪く、欲しい情報を効率よく入手することが困難であった。
 そのため、コンピュータ等の通信機器を別途準備することができる視聴者だけがそれらの通信機器を用いて、TV受信機とは別の機器でウェブ検索、情報入手等を行っている。しかし、そのためにはコンテンツに含まれる情報を正確にユーザが読み取って記憶又は記録しておかなければならないという問題点があった。
 また、放送局や通信事業者のセカンドスクリーン用の関連コンテンツは、通常、放送コンテンツに対するリアルタイム情報は少ないのが現状である。したがって、テレビ画面そのものに欲しい情報が含まれる場合、手元でメモをとるか、カメラでテレビ画面を撮影したりするしかないが、放送コンテンツは動画であるため、正しいタイミングで鮮明な画像情報を得ることは困難であった。
 また、TV番組コンテンツを手元の操作端末装置へ転送するシステムの開発が進みつつあるが、一般に、「この情報が欲しい」と感じたタイミングに対して、利用者が操作を行うと、コンテンツが手元端末に転送されるタイミングは少なくとも数秒程度の遅延が発生してしまう。そうすると、転送されたコンテンツは、利用者が希望する箇所では無いという問題が生じていた。
 上述した課題に鑑み、本発明の目的は、利用者がコンテンツ表示装置においてコンテンツ視聴中に、コンテンツ内に欲しい情報を見つけたとき、手元にある操作端末装置を用いて開始トリガとすることで、コンテンツが適切に転送される操作端末装置等を提供することである。
 上述した課題に鑑み、本発明の操作端末は、
 コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置であって、
 前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する制御を行う制御手段を備えることを特徴とする。
 また、本発明のコンテンツ保存方法は、
 コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置のコンテンツ保存方法であって、
 前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存することを特徴とする。
 また、本発明のプログラムは、
 コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置において実行されるプログラムであって、
 前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する機能を実現することを特徴とする。
 また、本発明のコンテンツ表示装置は、
 コンテンツを受信して表示することが可能なコンテンツ表示装置であって、
 接続された操作端末装置の移動を開始トリガとして、当該開始トリガから、受信したコンテンツ又は表示したコンテンツを、操作端末装置内若しくは所定の記憶装置に送信して記憶させる又はコンテンツ表示装置自身に記憶させることを特徴とする。
 また、本発明のコンテンツ転送システムは、
 コンテンツを受信するコンテンツ表示装置と、当該コンテンツ表示装置からコンテンツを受信し、当該コンテンツを表示可能な操作端末装置とを含むコンテンツ転送システムであって、
 前記操作端末装置は、
 前記操作端末装置の移動を検出する検出手段と、
 前記検出手段により、前記操作端末装置の移動が検出された場合に、開始トリガを検出する開始トリガ検出手段と、
 開始トリガが検出された後に終了トリガを検出する終了トリガ検出手段と、
 前記開始トリガが検出されてから、前記終了トリガが検出されるまで、前記コンテンツ表示装置からコンテンツを受信するコンテンツ受信手段と、
 前記受信されたコンテンツを保存するコンテンツ保存手段と、
 を備えることを特徴とする。
 本発明の操作端末装置によれば、操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する。したがって、利用者がコンテンツを保存したい場合、手元にある操作端末装置を移動させたタイミングでコンテンツの保存が開始され、所定時間経過した後には自動的にコンテンツの保存が終了する。
 これにより、利用者は複雑な操作をすることなく、視聴中のコンテンツを気軽に保存でき、かつ、コンテンツに含まれる必要な情報を確実に保存できるといった効果を期待できる。
コンテンツ転送システム全体を説明するための図である。 コンテンツ表示装置及び操作端末装置の機能構成を説明するための図である。 本実施形態におけるコンテンツ表示装置の処理の流れを説明するための図である。 本実施形態における操作端末装置の処理の流れを説明するための図である。 本実施形態における操作端末装置の処理の流れを説明するための図である。 本実施形態における動作例を説明するための図である。 本実施形態における動作例を説明するための図である。 本実施形態における動作例を説明するための図である。 本実施形態における動作例を説明するための図である。 本実施形態における動作例を説明するための図である。 本実施形態における動作例を説明するための図である。
 以下、本発明のコンテンツ転送システム等を適用した実施形態について、図を用いて説明する。なお、本実施形態は発明を理解するための一例であり、本発明が本実施形態の内容に限定されないことは勿論である。
 [1.システム概要]
 まず、コンテンツ転送システム1の概要について図1を用いて説明する。コンテンツ転送システム1は、コンテンツ表示装置10と、操作端末装置20とを含めて構成されている。コンテンツ表示装置10は、各種コンテンツを表示可能な装置であり、例えば、外部から地上波デジタル放送や、デジタル衛星放送、各種放送コンテンツを受信し、放送コンテンツから抽出される映像データを表示可能な装置である。その他にも、例えば記録媒体に記録されたコンテンツから復号された映像データを表示したり、ネットワークを介して受信された通信コンテンツを表示したりすることができる。
 また、操作端末装置20は、利用者の手元にあるコンテンツが表示可能な装置であり、本実施形態では操作用の端末としても用いられる。操作端末装置20は、例えば可搬型の端末であり、タブレット端末、コンピュータ、携帯電話(スマートフォン)等により構成されている。
 そして、コンテンツ表示装置10と、操作端末装置20とは、無線で接続されている。例えば、Bluetooth(登録商標)や、IEEE802.11a/b/g/n等の無線LAN、赤外線通信といった直接通信が行える方式で接続されている。また、それぞれが有線LANに接続され、同じネットワークに属する様な接続方式でも良い。
 [2.機能説明]
 続いて、各装置の機能構成について、図2を用いて説明する。
 [2.1 コンテンツ表示装置]
 コンテンツ表示装置10は、制御部100と、放送受信部110と、センサ部120と、通信部130と、記憶部140と、出力部150と、操作部160とを備えて構成されている。
 制御部100は、コンテンツ表示装置10の全体を制御するための機能部である。制御部100は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。
 放送受信部110は、放送局から放送コンテンツを受信するための機能部である。放送コンテンツは、動画、静止画、文字情報等を含むマルチメディアコンテンツであり、例えば地上波デジタル放送や、デジタル衛星放送、有線放送、ネットワーク回線を通じたIPマルチキャスト放送等を受信する。
 センサ部120は、コンテンツ表示装置10の環境や、ユーザ情報を取得するためのセンサ部である。例えば、CCDカメラによる撮影された画像を画像認識処理により環境を検出したり、照度、マイク、赤外線、温度センサ等により各種環境やユーザ情報を検出したりする。また、後述する開始トリガ、終了トリガを検出する場合にも利用される。
 通信部130は、他の端末装置と通信を行うための機能部である。本実施形態では、操作端末装置20と通信を行うためのインタフェース部として機能する。操作端末装置20とは、例えばIEEE802.11a/b/g/n等といった無線LAN、Bluetooth(登録商標)、赤外線通信、Zigbee(登録商標)、UMB(Ultra Wide Band)を用いたワイヤレスUSB、ワイヤレスIEEE1394、無線化されたHDMI(登録商標)といった無線接続や、USB、IEEE1394、HDMI等による有線接続で通信を行うことができる。
 記憶部140は、コンテンツ表示装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。
 出力部150は、コンテンツ表示装置10において、受信されたコンテンツデータを再生・表示するための表示や、音声を出力するための機能部である。例えば、表示装置としてはLCDで構成されていたり、音声出力装置としてはスピーカで構成されていたりする。
 操作部160は、利用者からの操作入力を受け付けるための機能部である。例えば、コンテンツ表示装置10に設けられたボタンやタッチパネル、コンテンツ表示装置10と赤外線通信等で接続されるリモコン装置等で構成されている。また、操作部160については、例えば操作端末装置20がその機能を実現しても良い。
 [2.2 操作端末装置]
 操作端末装置20は、制御部200と、センサ部220と、通信部230と、記憶部240と、一時記憶部245と、出力部250と、操作部260とを備えて構成されている。
 制御部200は、操作端末装置20の全体を制御するための機能部である。制御部200は、記憶部240に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。
 センサ部220は、操作端末装置20における環境等を検出するためのセンサ部である。例えば、GPS、加速度センサ、照度センサ、マイク、温度センサといった装置で構成可能である。
 通信部230は、他の端末装置と通信を行うための機能部である。本実施形態では、コンテンツ表示装置10と通信を行うためのインタフェース部として機能する。コンテンツ表示装置10の通信部130と同じプロトコル、通信方式が使われることとなる。
 記憶部240は、操作端末装置20の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部240は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。また、一時記憶部245に一時記憶された映像データを利用者の操作により保存する。
 一時記憶部245は、記憶部240に記憶される前のコンテンツ(例えば、映像データ)を一時的に記憶しておくための機能部である。本実施形態では、説明の都合上、記憶部240と分けて説明するが、記憶部240の中に領域を区切り、同じ装置として構成しても良い。
 出力部250は、操作端末装置20において、制御部200からの指示によって、通信部230で受信したコンテンツや、プログラムからの出力結果や、操作部260からの操作入力データやその状態等を再生・表示したり、音声を出力したりするための機能部である。例えば、表示装置としてはLCDで構成されていたり、音声出力装置としてはスピーカで構成されていたりする。
 操作部260は、利用者からの操作入力を受け付けるための機能部である。例えば、タッチパネル等による利用者の操作入力を検出する装置や、出力部250において表示されるソフトボタン、ハードウェアボタン等で構成されている。
 [3.処理の流れ]
 続いて、各装置の処理の流れについて図を用いて説明する。
 [3.1コンテンツ表示装置の処理]
 まず、コンテンツ表示装置10の処理の流れについて、図3を用いて説明する。まず、一定時間毎に映像取込準備信号を送信する(ステップS102)。ここで、映像取込準備信号は、本実施形態においては、予め登録された操作端末装置に送信することとして説明するが、所定の範囲の操作端末装置に対してブロードキャストとして送信することとしても良い。
 続いて、操作端末装置20から確認信号を受信すると、操作端末装置20において映像取込の準備ができたと判定する(ステップS104;Yes)。その後は、操作端末装置20からリクエスト信号が受信されるまで待機状態となる(ステップS106;No)。
 操作端末装置20より、リクエスト信号が受信されると(ステップS106;Yes)、コンテンツ表示装置10は、操作端末装置20に対してコンテンツから抽出された映像データの送信を開始する(ステップS108)。そして、映像データの送信は、操作端末装置から中止信号を受信するか(ステップS110;Yes)、設定時間が経過すると(ステップS112;Yes)、映像データの送信を終了する(ステップS114)。
 そして、本処理を繰り返し実行する場合にはステップS102から繰り返し処理を実行する(ステップS116;No→ステップS102)。
 [3.2 操作端末装置の処理]
 続いて、操作端末装置20の処理の流れについて図4又は図5を用いて説明する。まず、操作端末装置20は、映像取込準備信号をコンテンツ表示装置10から受信すると(ステップS202;Yes)、映像取込準備を開始する(ステップS204)。例えば、映像を取込むアプリケーションを起動して、待機モードにするといった処理が実行される。
 続いて、操作端末装置20から、コンテンツ表示装置10に対して確認信号が送信される(ステップS206)。これにより、コンテンツ表示装置10は、操作端末装置20に対して映像データを送信できる状態となる。
 ここで、操作端末装置20が、映像データをキャプチャする開始トリガを検出すると(ステップS208;Yes)、コンテンツ表示装置10に対してリクエスト信号を送信する(ステップS210)。ここで、開始トリガの詳細については後述するが、図4の処理では、センサ部220により、操作端末装置20の動きを検出することにより、開始トリガとしている。
 そして、映像データが受信されると(ステップS212)、受信された映像データを一時記憶部245に記憶、すなわちキャプチャ動作を開始する(ステップS216)。
 ここで、終了トリガを検出すると(ステップS216)、映像データの一時記憶、すなわちキャプチャを終了する(ステップS222)。ここで、終了トリガの詳細については後述するが、図4では、映像データの受信中止が選択された場合(ステップS218;Yes)又は設定時間を経過した場合(ステップS218;No→ステップS220;Yes)に、終了トリガを検出したとする。そして、一時記憶を終了するのと併せて、必要に応じてコンテンツ表示装置10に対して中止信号を送信する(ステップS224)。
 なお、中止信号の送信は必ずしもする必要は無い。例えば、図3のS112において、設定時間を経過すると、映像データの送信が終了する(ステップS114)。この場合は、わざわざ中止信号を送信するという構成とする必要は無い。
 例えば、ステップS112の設定時間を5秒、ステップS224の設定時間を3秒としておくと、仮にコンテンツ表示装置10が、中止信号の受信を失敗したとしても、映像データの送信を行い続けるといったことを防ぐことができる。
 続いて、操作端末装置20は、一時記憶された映像データを読み出して表示する(ステップS232;Yes→ステップS234)。ここで、表示される映像データとしては種々のものが考えられるが、例えば一時記憶部245に記憶されている映像データを表示したり、一時記憶部245及び記憶部240に記憶された映像データから、新しい映像データを表示したりしても良い。
 続いて、当該映像データを保存するか否かを判定する。ここで、映像データを保存する場合には(ステップS236;Yes)、映像データを一時記憶部245から記憶部240に保存する。
 他方、ステップS232において、映像データが一定時間読み出されない場合、保存する映像データでは無いと判断し(ステップS232;No→ステップS240;Yes)、一時記憶部245に記憶されている映像データを消去する(ステップS242)。
 また、ステップS236において、映像データが保存されると判定されない場合や、映像データを保存する必要が無いと判定された場合には(ステップS236;No→ステップS240;Yes)、一時記憶部245に記憶されている映像データを消去する(ステップS242)。なお、本実施形態においては、ステップS240を経由しているが、例えば利用者から映像データを保存しないと選択された場合は、直ぐに一時記憶部245の映像データを消去することとしても良い(ステップS236;No→ステップS242)。
 [4.トリガの検出方法]
 上述の動作処理においてキャプチャを開始するタイミングである開始トリガ、キャプチャを終了するタイミングである終了トリガとしては種々の方法が考えられる。以下、開始トリガ及び終了トリガの検出方法について説明する。
 [4.1 開始トリガの検出]
 [4.1.1 操作端末装置による検出]
 操作端末装置20を用いて開始トリガを検出する場合について説明する。まず、操作端末装置20の動きを検出することにより、開始トリガとして検出する。この場合、操作端末装置20のタッチ以外の入力値変化を利用する方法が考えられる。基本的に、いずれのセンサ検知においても、一定時間(例えば、数10秒~数分で利用者が設定可能な範囲)無変化状態を経た後、何らかの変化を検知することが開始トリガとなる。
 すなわち、一定時間無変化なのかどうかを常に判定しておいて、一定時間無変化の条件を満たさなければ、開始トリガにはなりえない。又は、一定時間無変化なのかどうかを常に又は所定間隔で判定しておいて、一定時間無変化の条件を満たさない場合は、ユーザの意識的な操作によってのみ開始トリガが検出される。
 なお、ここでいう無変化という状態は、操作端末装置20の状態が変化しない状態のことを言うが、全く変化しないという場合だけではなく、予め定められた割合以下の変化しか検出されない状態をいう。具体的には、センサ部により取得される値が、所定の閾値以下でしか変化しない場合に、操作端末装置20が無変化であると判定される。
 なお、テレビ視聴中というのが動作の基本条件であるため、コンテンツ表示装置10が最初に操作端末装置20へ準備状態の信号を出すようにする。これにより、コンテンツ表示装置10からの信号を受信可能な操作端末装置20のみ動作させることができるため、操作端末装置20の余計な動作を防ぐことができ、かつ、コンテンツ表示装置10側も周囲に操作端末装置20が存在しない場合には、データ送信等の動作をせずに済むため、効率的である。
 ここで、操作端末装置20の動作を検出するために、センサ部220は加速度センサにより構成されていることが考えられる。この場合、操作端末装置20が動いたり、動かされたりした時点で開始トリガが検出され、リクエスト信号がコンテンツ表示装置10へ送信される。この場合、操作端末装置20におけるタッチ操作に基づく動作より早い段階でデータのキャプチャが可能なため、利用者が思い立った瞬間のコンテンツをキャプチャ可能となる。
 また、無線LANやGPSを用いた操作端末装置20の位置測定も加速度センサと同様に、操作端末装置20の動きを検知でき、開始トリガの検出が行える。この場合も、加速度センサを用いた場合と同様の効果が得られる。
 また、センサ部220として、照度センサを間接的に操作端末装置20の動き検出(開始トリガの検出)に使うことが可能である。これは、操作端末装置20の角度が少し変わっただけでも照度変化が発生しうるためである。この場合、例えば、ユーザが操作端末装置20に手を近付けただけでもデータ転送動作が開始する可能性があり、加速度センサより更に早いタイミングでキャプチャできる可能性がある。
 また、操作端末装置20に音声入力部を更に有し、音声入力を使った開始トリガの検出も考えられる。この場合、例えば、事前に利用者の声を登録したり、入力される言葉(「あっ!」「おっ!」等)によって動作を制御することができる。
 また、温度センサ(温度)や湿度センサ(湿度)を検出して動きを検出して、開始トリガを検出するとしてもよい。この場合は、例えば、操作端末装置20の握りの部分で利用者が触ったかどうかを検出する仕組みを入れ、開始トリガにすることができる。
 また、操作端末装置20にカメラ部を有し、動きの検出(開始トリガの検出)にカメラを利用しても良い。例えば、操作端末装置20が放置された状態の場合、天井画像やテーブル表面画像が写っている場合が多いと考えられるため、それらの画像からの変化を検知することができる。
 これらのセンサ部220については、センサ部220の状態をOSが用意する関数や、SDKを利用して取得することとしても良い。ここで、操作端末装置20に、Android OSが用いられている場合、Android SDKが各種センサをサポートしている。
 例えば、
  加速度センサ・・・Sensor.TYPE_ACCELEROMETER
  傾きセンサ ・・・Sensor.TYPE_ORIENTATION
  明るさセンサ・・・Sensor.TYPE_LIGHT
  温度センサ ・・・Sensor.TYPE_AMBIENT_TEMPERATURE
  湿度センサ ・・・Sensor.TYPE_RELATIVE_HUMIDITY
  角速度センサ・・・Sensor.TYPE_GYROSCOPE
 がサポートされている。
 これらのセンサを使うためには、
 (1)SensorManagerインスタンスをgetSystemService(SENSOR_SERVICE)により取得する。
 (2)getSensorList()によりその端末で使用可能なセンサを調べる。
 (3)resisterListener()の引数に(受信するリスナーインスタンス、センサタイプリスト、受信頻度)を指定して、リスナーを登録する。
 (4)登録したリスナーに対するメソッドとして、onSensorChanged()を実装し処理を実施する。
 (5)unresisterListener()でリスナー登録を解除し、センサの更新を受信しないようにする。
 といったプロセスを実行する。
 ここで、センサイベントにおける軸の定義は、端末の画面のデフォルト向きに対して、水平右向きがX軸、垂直上向きがY軸、画面鉛直外向きがZ軸となる。
 onSensorChanged()による処理で、センサの検知値を得て、例えば、その処理をコンテンツ表示装置10へのデータ転送リクエストとすれば、その操作端末装置20が装備しているセンサの精度に応じてデータ転送をさせることができる。ここで、onSensorChanged()での処理の中で、一定時間経過したかどうかを判定し、Noであれば、何も処理をしないようにしておくこともできる。
 また、当然、センサの検知値に対してリクエスト動作を行うための閾値を設けることも可能である。例えば、その閾値を変数にしておくことで、ユーザが感度設定できるようにすることも可能である。
 本実施形態において、onSensorChanged()→データリクエストというプロセスを行うこととするが、例えば、onSensorChanged()→unresisterListener()→データリクエスト→転送終了→resisterListener()等のように、センサの監視をその都度オン・オフしながら処理することとしても良い。
 また、同じAndroid OSを用いる場合でも、jsWaffleを用いても良い。jsWaffleは、HTML/CSS/JavaScript(登録商標)等のWEB技術を用いて、Androidアプリを作ることのできるオープンソースのフレームワークであり、Android標準ブラウザの機能に加えて、Android固有のセンサ等へのアクセスを可能にする固有APIが準備されている。
 jsWaffle.jsというスクリプトを用いることで、JavaScriptからjsWaffleのAPIへアクセス可能になる。例えば、HTMLの先頭「<HEAD>」タグ内に、
 <script type="text/javascript" srt="(ディレクトリ名)/jsWaffle.js"></script>
 を記述しておけば、以下の例のようにGPSや傾きセンサ等へのアクセスができる。
  GPS・・・droid.getCurrentPosition(), droid.watchPosition(), doroid.clearWatchPosition()
  傾き・・・droid.watchAccel(callback), droid.clearAccel()
  シェイク(振る)・・・droid.watchShake(fn)
 ここで、取得情報としては、GPSが「緯度、経度、精度、標高」、傾きは「X,Y,Z」で、シェイクは傾きセンサを活用したオン・オフ検知である。ただし、傾きのXYZの軸は、Android SDKの場合と逆符号となる。
 傾きセンサを活用し、本実施形態の動作を実現する場合、例えば、以下のようなプロセスとなる。
  (1)コンテンツ表示装置10からの準備要求で、droid.watchAccel(function(x,y,z) {(処理)}を動かしセンサ監視開始する。
  (2)ここで、操作端末装置20が画面を上にして水平に置かれていれば(x,y,z)=(0,0,10)となる。
  (3)「x>0」、「y>0」又は「z<10」が検知されたときに、droid.clearAccel()で監視を止めた上で、コンテンツ表示装置10にデータリクエストを送信する。
  (4)転送が終わり、その後の操作も終了した後、再度droid.watchAccelでセンサ監視を開始する。
 コンテンツ転送動作起動のための閾値としては、定数aを決め、上記検知判定条件を「x>0+a」、「y>0+a」又は「z<10-a」とすればよい。更に、操作端末装置20がデフォルト上部(例えば、電源ボタンが設置されているのが上等とメーカが設定する)を上にして立てられた状態は(x,y,z)=(0,10,0)であることを考慮すると、前記検知判定条件を「y>0」及び「z<10」とすれば、利用者が操作端末装置20を立てようとしている動作を検知することができる。
 また、前記プロセスの(2)の座標値は理想的な場合であるため、例えば、(1)の後、一度、現在の状態を(x1,y1,z1)等と保存しておき、その値に変化があったら(3)へ進むようにしてもよい。
 なお、上述で用いたセンサ情報以外にも利用することはできる。例えば、Android SDKにおいては、
 照度センサの情報:Sensor.TYPE_LIGHTで国際単位系(SI)のLux値
 温度センサの情報:Sensor.TYPE_AMBIENT_TEMPERATUREでセルシウス温度値
 湿度センサの情報:Sensor.TYPE_RELATIVE_HUMIDITYで相対湿度のパーセント値
 角速度センサの情報:Sensor.TYPE_GYROSCOPEで端末を中心にした前記直交3軸(x,y,z)の各軸に対する角速度(ラジアン/秒)
 を取得することができる。
 これらのセンサ情報は、すべて前記のonSensorChanged()で変化を検知できるため、そのタイミングでリクエスト信号を送信するようにすることにより、加速度や傾きを用いた場合と同様の処理が可能である。
 また、処理のための閾値設定は、各センサで異なる設定が必要となるが、例えば、照度であれば、10lux以上の変化の場合のみ動作させるとか、温度10℃以上の変化や湿度10%以上の変化で「人が触ったと判断する」とか、角速度ならいずれかの軸において10度以上の変化があれば「意図的に端末を動かしたと判断する」等と考えても良い。
 [4.1.2 コンテンツ表示装置による検出]
 4.1.1では、操作端末装置20のセンサ部220を利用することを説明したが、コンテンツ表示装置10のセンサ部120を利用してもよい。環境を検出するセンサ部120(例えば、利用者へ向けられたカメラや赤外線等のセンサ)で利用者のジェスチャ(例えば、特定の手の動き)を検知し、トリガにしてもよい。
 これらのセンサは、いずれも利用者又は利用者の視聴環境を監視するために設置されるため、表示部である表示デバイスが映像を提示する方向と、略同一の方向に設けられるのが一般的である。
 本実施形態にこれらのセンサを活用する場合、例えば、カメラ、マイク、赤外線等を利用することにより、ジェスチャ認識を行うことが可能である。なお、ジェスチャ認識を行う場合に、例えば赤外線を活用するのであれば、放射するデバイスと、その反射を検知するセンサとを設置する方が好ましい。
 好ましい動作例としては、操作端末装置20の準備がOKになった状態以降、コンテンツ表示装置10のセンサ部120が利用者の動作(不特定又は特定)を検出する。そして、コンテンツ表示装置10の制御部が、放送コンテンツを映像データとして記憶開始する。
 そして、映像データが設定時間長に達したら、通信部130経由で操作端末装置20へ「記憶した」旨を通知する。操作端末装置20の表示部に「テレビ受信端末に記憶コンテンツ有り」を表示する。
 以降は、操作端末装置20で操作部260から映像データが呼び出されたかどうかの判断をし、前記フローチャートと略同一の処理を実行する。ここで、「終了」直前の動作で、データが不要になった場合(ステップS236;No)は、操作端末装置20からコンテンツ表示装置10へ「(コンテンツ表示装置10の)一時記憶のデータを消去するよう通知してコンテンツ表示装置10の制御部100がデータを消去」し、利用者からデータ保存の指示があった場合は、そこで操作端末装置20からコンテンツ表示装置10へデータリクエストを送りストリーミングが開始され、操作端末装置20の記憶部240へ保存されることとなる。勿論、データ保存指示が操作端末装置20から送られた後、コンテンツ表示装置10において記録するようにしてもよい。
 上述のコンテンツ表示装置10が記憶した旨通知する場合、映像データ中のフレーム画像をピックアップして、操作端末装置20へ送り、操作端末装置20は画像も受信した場合は画面上に画像も表示することとしても良い。
 [4.2 終了トリガの検出]
 続いて、キャプチャ動作を終了させるための終了トリガについて、検出方法について説明する。なお、各センサ部の具体的な検出内容等については、前記[4.1 開始トリガの検出]で説明したAndroid OSの動作と同様である。
 キャプチャ動作の終了を行う終了トリガとしては、種々の方法が考えられるが、キャプチャ開始後、設定時間経過後に終了させるタイミングで行う必要がある。
 本実施形態では、任意のタイミングでキャプチャ動作を開始することで、利用者が欲しい情報を得やすくする特徴がある。この場合、利用者が意図しないキャプチャ動作となる場合があるため、数秒~数時間(例えば、30秒間)を設定時間とし、当該設定時間経過後にキャプチャを終了させる必要がある。したがって、当該設定時間経過後に終了トリガが検出されることとなる。
 また、操作端末装置20からの操作指示を終了トリガとしても良い。利用者からの操作が行われ、一時記憶部245の映像データからフレーム画像を抽出・表示した場合、まだキャプチャが継続していればそのステータス表示とともに、「キャプチャ停止」や「キャプチャ継続」ボタンを表示する。そして、利用者の指示によりキャプチャ動作の制御をできるようにしてもよい。
 また、映像データのシーンチェンジのタイミングを終了トリガとしても良い。すなわち、キャプチャし一時記憶される映像データを、記憶しながら画像解析(顔・オブジェクト認識、色度分析等)し、シーンチェンジを検出する。そして、シーンチェンジのタイミングでキャプチャを終了させても良い。
 また、コンテンツには、音声や字幕が情報として付加されている場合も少なくないため、例えば、音声であれば多重音声やステレオの変化のタイミングや、実況・アナウンス等の声による変化の検知、また、字幕なら文字認識によりコンテンツの変化を検知したりして、それらのタイミングを終了トリガとして検出しても良い。
 また、放送局があらかじめメタデータ等によりシーンチェンジやコンテンツ連動データ放送を準備している場合は、当該メタデータ等から終了トリガを検出しても良い。
 また、受信しているチャンネル(放送局)が変更された場合、それを終了トリガとして検出しても良い。更に、視聴中の番組が終わり次番組に変わった場合、EPG情報等で変化を知ることができるため、そこから終了トリガを検出しても良い。
 また、操作端末装置20のセンサ部220の状態に基づいて終了トリガを検出しても良い。例えば、操作端末装置20を3回シェイクすればキャプチャが終了する(終了トリガを検出する)とか、特定の画面タッチ(例えば、×印を書く等)により終了トリガを検出するとか、加速度センサの数値が一定時間(数十秒等)変化がなかった場合に終了トリガを検出するとか、照度センサを使ってセンサ部分を覆えば終了トリガを検出するとか、前述のonSensorChanged()でセンサを監視している際に監視時間を計測するようにして数十秒何もなければ終了トリガを検出するとか、このような場合にキャプチャ動作を終了することとしても良い。
 また、コンテンツ表示装置10側のセンサ部120を用いても良い。例えば、コンテンツ表示装置10側の出力部150にキャプチャ中のステータス表示をした上で、ジェスチャで画面に向かってユーザが手のひらを向けたことを検知したらキャプチャを終了する(終了トリガを検出する)とか、通常のリモコンの特定ボタンを割り当ててユーザの指示入力によりキャプチャを終了する(終了トリガを検出する)とかにしても良い。
 [5.動作例]
 続いて、図を用いて動作例について説明する。例えば、図1に示したように、コンテンツ表示装置10と、操作端末装置20とを用いて説明する。なお、本動作例においては、コンテンツ表示装置10として、地上波デジタル放送が受信可能な液晶テレビ、操作端末装置20として、OSとしてAndroidが採用された携帯型端末装置を例にとって説明する。
 図6は、図6(a)にコンテンツ表示装置10の様子を、図6(b)に操作端末装置20の様子を示した図である。例えば、コンテンツ表示装置10の電源が投入されるタイミングにおいて、映像取込準備信号が操作端末装置20に送信される。操作端末装置20は、映像取込準備信号を受信すると、映像取込準備状態となる。映像取込準備状態となったことを報知するために、操作端末装置20の表示画面には、「キャプチャ準備完了」と表示されている。
 図7は、キャプチャを開始するための開始トリガが検出された場合について示す図である。図7(a)のコンテンツ表示装置10には映像データの転送が開始されたため、「キャプチャ中」と表示される。図7(b)の操作端末装置20は、映像データの一時記憶が開始されたことから「キャプチャ!」と表示されている。
 続いて、そのままキャプチャ状態を示した状態が図8である。すなわち、コンテンツ表示装置10から、操作端末装置20に映像データが転送され、操作端末装置20においては映像データが一時記憶されている。図8(a)に示すように、コンテンツ表示装置10には、キャプチャ中であることが表示されている。また、図8(b)には、キャプチャ中であることと、キャプチャの中止確認表示がされている。利用者により、「停止」ボタンがタッチされると、終了トリガが検出され、キャプチャが中止される。
 図9は、終了トリガを検出した後の状態を示す図である。図9(b)に示すように、操作端末装置20には、キャプチャされた時間が一覧表示されている。なお、当該一覧表示は、このように時刻表示であってもよいし、例えば映像データの一部が一覧表示されることとしても良い。
 そして、図9(b)の状態で所定時間が経過する(すなわち、利用者により何も選択されない)と、一時記憶されていた映像データは消去される。他方、表示されているキャプチャリストから、キャプチャされた映像データが選択されると、図10(b)の状態に遷移する。
 図10(b)は、現在キャプチャされた映像データのうち、一部が静止画表示されている。この静止画表示は、キャプチャした時間のうち、最初の部分、中間部分、最後の部分の何れかから適切な静止画データを抽出している。
 すなわち、保存される映像データに基づく静止画群を取り出すことが可能となる。そして、この静止画群に含まれる静止画を前後することにより、もっとも適切な静止画を利用者は選択し、静止画に含まれている情報を読み取ることができる。
 そして、利用者により保存操作がされる(例えば、操作端末装置20に表示されている操作ボタン領域をタッチする)と、キャプチャされていた映像データが記憶部240に保存されることとなる。
 なお、この間、コンテンツ表示装置10は、コンテンツを表示し続けている(図9(a)、図10(a))。例えば、図11(a)のように、シーンが切り替わったとしても、図11(b)のように操作端末装置20は、操作を継続することができる。
 このように、本実施形態によれば、開始トリガとして、例えばセンサ部の出力変化のタイミングで操作端末装置の動きを検出するため、利用者が操作端末装置を操作して、表示部において表示を確認するタイミングより早くコンテンツ(映像データ)の転送が開始できる。したがって、利用者が欲しいと感じた瞬間のコンテンツの情報を、適切に取り込む可能性が圧倒的に高くなる。
 また、コンテンツ表示装置と、操作端末装置の間でデータ転送を行う場合、利用者がコンテンツ表示装置の表示画面を、カメラで撮影する場合と比べて、手ぶれや画面遷移等に伴う画質低下が少なく、鮮明な画像を操作端末装置上で取り扱うことが可能となる。
 また、操作端末装置で取り込んだデータは映像データであり、そこからフレーム画像を静止画として抜き出すことが可能であるため、欲しい情報が含まれるフレーム画像を静止画群として閲覧・確認できるようになり、慌てることなく情報を探しだすことが可能である。
 また、ライブ放送時でもテレビ視聴しながら操作端末装置に欲しい情報を取り込むことができる。
 また、常時録画に比べ、効率的に必要な部分のみ保存できるため、処理負荷や記憶容量を軽減できる。
 [6.変形例]
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も請求の範囲に含まれる。
 また、上述の実施形態においては、映像データが一時記憶部245に一時記憶されることとして説明したが、直接記憶部240に記憶されることとしても良い。すなわち、開始トリガが検出されたら、映像データが記憶部240に直接保存されることとなる。
 また、上述の実施形態において、コンテンツ(映像データ)は操作端末装置20内に記憶される実施形態を主に説明したが、他の装置等に記憶されることとしても良い。例えば、ネットワークに接続されたファイルサーバ、他のコンピュータ、NAS(Network Attached Storage)であっても良いし、クラウド(外部ネットワーク)を利用しても良い。
 また、上述の実施形態においても、操作により一時記憶しないこととする構成としても良い。例えば、図8(b)には、「継続」と「中止」のボタンが表示されている。ここで、利用者により「継続」がタッチされた場合には、通常必要な映像データである可能性が高い。したがって、この場合は一時記憶部245ではなく、記憶部240に保存される構成としても良い。
 また、上述した実施形態においては、コンテンツ表示装置10が受信するコンテンツとしては、放送波を介して受信される放送コンテンツを例にとって説明したが、それ以外のコンテンツ、例えばDVDやBlu-ray(登録商標)といった記録媒体に記録されたマルチメディアコンテンツや、インターネット等を介して受信される通信コンテンツ(例えば、IPマルチキャスト放送)といった各種コンテンツにおいても適用可能なことは勿論である。
 また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
 ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO((Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
 また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。
 また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。
1 コンテンツ転送システム
 10 コンテンツ表示装置
  100 制御部
  110 放送受信部
  120 センサ部
  130 通信部
  140 記憶部
  150 出力部
  160 操作部
 20 操作端末装置
  200 制御部
  220 センサ部
  230 通信部
  240 記憶部
  245 一時記憶部
  250 出力部
  260 操作部

Claims (10)

  1.  コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置であって、
     前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する制御を行う制御手段を備えることを特徴とする操作端末装置。
  2.  前記制御手段は、前記開始トリガから所定時間経過後を終了トリガとして、当該終了トリガをもとに、受信中又は表示中のコンテンツの送信を終了させるとともに、前記コンテンツ表示装置から受信した前記コンテンツの保存を終了することを特徴とする請求項1に記載の操作端末装置。
  3.  前記コンテンツ表示装置から受信したコンテンツを一時的に記憶する一時記憶手段を更に有し、
     前記制御手段は、前記一時記憶手段に記憶されたコンテンツを保存すると判定した場合に、当該コンテンツを保存することを特徴とする請求項1又は2に記載の操作端末装置。
  4.  前記終了トリガは、ユーザからの所定の操作入力があった場合に、終了トリガとして検出することを特徴とする請求項1から3の何れか一項に記載の操作端末装置。
  5.  コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置のコンテンツ保存方法であって、
     前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存することを特徴とするコンテンツ保存方法。
  6.  コンテンツを受信するコンテンツ表示装置に対して、コンテンツを送信させることができ、当該コンテンツを表示可能な操作端末装置において実行されるプログラムであって、
     前記操作端末装置の移動を開始トリガとして、当該開始トリガから受信中又は表示中のコンテンツの送信を開始させるとともに、前記操作端末装置の移動から終了トリガまでの間に受信した、前記送信されたコンテンツを保存する機能を実現するためにプログラム。
  7.  コンテンツを受信して表示することが可能なコンテンツ表示装置であって、
     接続された操作端末装置の移動を開始トリガとして、当該開始トリガから、受信したコンテンツ又は表示したコンテンツを、操作端末装置内若しくは所定の記憶装置に送信して記憶させる又はコンテンツ表示装置自身に記憶させることを特徴とするコンテンツ表示装置。
  8.  前記開始トリガ後に検出した終了トリガをもとに、受信したコンテンツ又は表示したコンテンツを、操作端末装置内若しくは所定の記憶装置に送信して記憶させることを終了する又はコンテンツ表示装置内に記憶させることを終了することを特徴とする請求項7に記載のコンテンツ表示装置。
  9.  前記終了トリガは、前記開始トリガから所定時間経過によって発生するトリガであることを特徴とする請求項8に記載のコンテンツ表示装置。
  10.  コンテンツを受信するコンテンツ表示装置と、当該コンテンツ表示装置からコンテンツを受信し、当該コンテンツを表示可能な操作端末装置とを含むコンテンツ転送システムであって、
     前記操作端末装置は、
     前記操作端末装置の移動を検出する検出手段と、
     前記検出手段により、前記操作端末装置の移動が検出された場合に、開始トリガを検出する開始トリガ検出手段と、
     開始トリガが検出された後に終了トリガを検出する終了トリガ検出手段と、
     前記開始トリガが検出されてから、前記終了トリガが検出されるまで、前記コンテンツ表示装置からコンテンツを受信するコンテンツ受信手段と、
     前記受信されたコンテンツを保存するコンテンツ保存手段と、
     を備えることを特徴とするコンテンツ転送システム。
PCT/JP2013/058941 2012-04-02 2013-03-27 操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム WO2013150932A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012083999A JP5959276B2 (ja) 2012-04-02 2012-04-02 操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム
JP2012-083999 2012-04-02

Publications (1)

Publication Number Publication Date
WO2013150932A1 true WO2013150932A1 (ja) 2013-10-10

Family

ID=49300422

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/058941 WO2013150932A1 (ja) 2012-04-02 2013-03-27 操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム

Country Status (2)

Country Link
JP (1) JP5959276B2 (ja)
WO (1) WO2013150932A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182085A1 (en) * 2014-05-27 2015-12-03 Sharp Kabushiki Kaisha Companion device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074775A (ja) * 2004-08-31 2006-03-16 General Motors Corp <Gm> 放送コンテンツ蓄積のためのバッファリングの仕組み
JP2007013991A (ja) * 2002-05-20 2007-01-18 Sony Corp 表示制御装置、その制御方法、その制御プログラム及び記録媒体
JP2007318494A (ja) * 2006-05-26 2007-12-06 Canon Inc 操作システム及び方法、並びにプログラム及び記憶媒体
JP2009055614A (ja) * 2004-12-22 2009-03-12 Sony Corp リモート・コマンダ、遠隔操作方法、並びにリモコン・サーバ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013991A (ja) * 2002-05-20 2007-01-18 Sony Corp 表示制御装置、その制御方法、その制御プログラム及び記録媒体
JP2006074775A (ja) * 2004-08-31 2006-03-16 General Motors Corp <Gm> 放送コンテンツ蓄積のためのバッファリングの仕組み
JP2009055614A (ja) * 2004-12-22 2009-03-12 Sony Corp リモート・コマンダ、遠隔操作方法、並びにリモコン・サーバ
JP2007318494A (ja) * 2006-05-26 2007-12-06 Canon Inc 操作システム及び方法、並びにプログラム及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182085A1 (en) * 2014-05-27 2015-12-03 Sharp Kabushiki Kaisha Companion device

Also Published As

Publication number Publication date
JP5959276B2 (ja) 2016-08-02
JP2013214876A (ja) 2013-10-17

Similar Documents

Publication Publication Date Title
US11343556B2 (en) Method of controlling a horizontal screen or vertical screen of television, device, and storage medium
US8614625B2 (en) Adaptive media content scrubbing on a remote device
US8774592B2 (en) Media reproduction for audio visual entertainment
US10203927B2 (en) Display apparatus and display method
KR20120105346A (ko) 오브젝트 정보 검색 방법 및 그를 이용한 영상 표시 장치
US11706465B2 (en) ATSC 3.0 advertising notification using event streams
JP2005260289A (ja) 画像表示装置および画像表示方法
US10219045B2 (en) Server, image providing apparatus, and image providing system comprising same
KR101311463B1 (ko) 원격 영상정보 제공시스템
KR20150037372A (ko) 영상표시장치, 컨텐츠 동기화 서버 및 그 동작방법
JP5959276B2 (ja) 操作端末装置、コンテンツ保存方法、プログラム、コンテンツ表示装置及びコンテンツ転送システム
JP6219531B2 (ja) テレビ番組画像フレームキャプチャ装置、テレビ番組画像フレーム取得装置、システム及び方法
KR102267194B1 (ko) 단말기 및 그의 동작 방법
US20090013355A1 (en) Broadcast scheduling method and broadcast receiving apparatus using the same
JP2008053962A (ja) 通信端末装置
KR102157397B1 (ko) 콘텐츠 재생 방법 및 그 장치
JP5083331B2 (ja) 画像表示装置および方法
US11044294B2 (en) ATSC 3.0 playback using MPEG media transport protocol (MMTP)
US20170142469A1 (en) Image providing device
TWI549051B (zh) 顯示裝置播放節目之方法
US20090113470A1 (en) Content management method, and broadcast receiving apparatus and video apparatus using the same
TWI531221B (zh) A method and system for collecting channel information for a plurality of media source programs
JP2015039092A (ja) 電子機器、及び電子機器の制御方法
JP2013023102A (ja) 列車情報提供システム
JP2008053963A (ja) 映像表示システム、通信端末装置および映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13771912

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13771912

Country of ref document: EP

Kind code of ref document: A1