WO2007123014A1 - 画像出力装置 - Google Patents

画像出力装置 Download PDF

Info

Publication number
WO2007123014A1
WO2007123014A1 PCT/JP2007/057863 JP2007057863W WO2007123014A1 WO 2007123014 A1 WO2007123014 A1 WO 2007123014A1 JP 2007057863 W JP2007057863 W JP 2007057863W WO 2007123014 A1 WO2007123014 A1 WO 2007123014A1
Authority
WO
WIPO (PCT)
Prior art keywords
effect processing
image
unit
content
image data
Prior art date
Application number
PCT/JP2007/057863
Other languages
English (en)
French (fr)
Inventor
Akihiro Yamamoto
Kenji Nishimura
Toshiaki Mori
Atsushi Iisaka
Takeshi Furukawa
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to JP2008512065A priority Critical patent/JPWO2007123014A1/ja
Priority to US12/294,075 priority patent/US20090125836A1/en
Publication of WO2007123014A1 publication Critical patent/WO2007123014A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Definitions

  • the present invention relates to an image output apparatus that executes content stored in a recording apparatus, and more particularly to an image output apparatus that performs display control when a screen changes during reproduction of moving image data.
  • Digital video data which is an example of content
  • MPEG-2 Motion Picture Experts Group phase 2
  • these are decoded by a dedicated hardware type decoder or a software type decoder. Played with.
  • the time until the screen display depends on the setting of the communication speed and the buffer of the application.
  • the user can not know the time until it starts.
  • the moving picture display device described in Patent Document 1 displays a moving picture on the next screen. At the time of presentation, it is proposed to display a still image if the processing time can not be met due to the reading of moving image data.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-67489
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2004-157243
  • the music reproduction device of Patent Document 2 can reduce the user's discomfort by putting effect processing at the time of screen switching, but it is sufficient to execute the effect processing for a while. Because the user does not know the motion, the moving image reproduction is not started after the screen is switched, and in the case, the still image is displayed as in the moving image display device of Patent Document 1.
  • the present invention has been made in view of the above problems. That is, it is an object of the present invention to provide an image output device which smoothly switches the screen when starting the reproduction of the content and does not make the user feel uncomfortable or anxious.
  • the present invention is premised on an image output apparatus that outputs image data to a display unit.
  • the present invention provides a display unit for displaying image data, an input unit for receiving user's operations, and a data buffering amount sufficient for reproducing image data of a predetermined content received by the input unit.
  • An effect processing control unit that calculates the effect processing execution time that is the execution time of the effect processing image displayed when switching the screen from the required time, and an effect processing image that generates an effect processing image according to the effect processing execution time
  • the communication device further includes a communication unit for acquiring the content accumulated in the content storage unit installed at the remote place via the network, and the effect processing control unit is configured to communicate the communication unit with the content storage unit. It is preferable to calculate the effect processing execution time based on the speed.
  • the communication unit acquires the content stored in the content storage units installed at a plurality of remote places via the network, and the effect processing control unit communicates the communication unit with the content storage unit. It is preferable to calculate the effect processing execution time corresponding to each effective speed
  • the content processing unit further includes a content storage unit for storing content
  • the effect processing control unit is based on the time required to read an amount of data buffering sufficient for image data reproduction from the content storage unit. It is preferable to calculate the execution time of the effect processing.
  • the effect processing control unit periodically calculate the effect processing execution time.
  • an effect processing image can be generated using the effect processing execution time calculated immediately.
  • the database management apparatus further comprises a DB management unit for recording a database file for managing the content stored in the content storage unit, and the DB management unit is configured to store still image data corresponding to each content stored in the content storage unit. It is preferable that the effect processed image generation unit generates the effect processed image using the still image data.
  • the image output device is preferably installed in a mobile unit U ,. [0024] Thereby, even in a mobile with unstable communication effective speed, reproduction of moving image data can be started immediately after screen switching.
  • FIG. 1 is a block diagram of an on-vehicle image output apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of a database file in the embodiment of the present invention.
  • FIG. 3 is a flowchart of moving image data viewing processing in the embodiment of the present invention.
  • FIG. 4 is a view showing an example of a moving picture menu screen according to the embodiment of the present invention.
  • FIG. 5 is a view showing an example of an effect processing image according to the embodiment of the present invention. Explanation of sign
  • an image output apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
  • the image output device is installed in a car and is movable.
  • the image output apparatus is referred to as an on-vehicle image output apparatus 101.
  • a content storage unit 110 that can be transmitted and received by communication with the on-vehicle image output device 101 and in which content such as moving image data and music data is stored is installed at home.
  • an on-vehicle image output apparatus 101 includes a communication unit 102, a decoding unit 103, a DB management unit 104, a control unit 105, an effect processing control unit 106, and an effect processing image generation unit 107. Further, the in-vehicle image output apparatus 101 is connected to the input unit 108 and the display unit 109.
  • the communication unit 102 communicates with the content storage unit 110. Communication is performed via the Internet using, for example, a wireless LAN (IE EE802.11a, lib, llg, etc.). The communication is not limited to the wireless LAN, and other communication such as a mobile phone may be used. Also, it may be P2P communication with a portable terminal instead of via the Internet.
  • a wireless LAN IEEE 802.11a, lib, llg, etc.
  • the communication is not limited to the wireless LAN, and other communication such as a mobile phone may be used. Also, it may be P2P communication with a portable terminal instead of via the Internet.
  • Decoding unit 103 transmits digital moving image data (hereinafter referred to as moving image data, and acquires and reproduces the moving image data by communication) transmitted from content storage unit 110 through communication unit 102. Receive and decrypt. It is assumed that this moving picture data is compressed, for example, in MPEG-2 (Moving Picture Experts Group phase 2). Then, the decoding unit 103 outputs the decoded moving image data to the control unit 105.
  • the compression method of moving picture data is not limited to MPEG-2 and may be compressed by other compression methods!
  • the DB management unit 104 stores a database file for managing digital content such as moving image data and music data.
  • a database file for example, a hard disk drive (HDD) may be used. ve).
  • HDD hard disk drive
  • this database file for example, digital contents reproducible by the user are managed as a list. Further, in the present embodiment, it is assumed that still image data of the first frame corresponding to each moving image data managed in the database file is recorded in the DB management unit 104.
  • FIG. 2 An example of a database file of moving image data is shown in FIG.
  • the database file 201 contains various information related to moving image data such as title, file name, update date and time, and corresponding still image file name.
  • the actual database file 201 is recorded as digital data in the DB management unit 104. The contents of the database file 201 will be described later.
  • the control unit 105 controls the output of the image signal to the display unit 109. Specifically, a menu screen created based on the decoded moving image data output from the decryption processing unit 103 or the database file read from the DB management unit 104, and output from the effect processing image generation unit 107 The effect processed image to be selected is switched and output to the display unit 109.
  • the effect processed image represents an image to which a special effect is applied to screen switching from the current image to the next image, and is, for example, a wipe image.
  • the control unit 105 instructs the effect processing control unit 106 to prepare for effect processed image generation at an appropriate timing.
  • the effect processing control unit 106 calculates an effect processing execution time which is a time required to output the content stored in the content storage unit 110 to the display unit 109.
  • An effect processing execution time which is a time required to output the content stored in the content storage unit 110 to the display unit 109.
  • the effect processing control unit 106 makes access to the content storage unit 110 via the communication unit 102.
  • the effect processing control unit 106 calculates an effect processing execution time that is an execution time of the effect processing image using the measured communication effective speed, and instructs the effect processing image generation unit 107 to generate an effect processing image.
  • the effect processing image generation unit 107 that has received the instruction for effect processing image generation generates an effect processing image according to the effect processing execution time, and outputs the effect processing image to the control unit 105. Details of these processes will be described later.
  • the input unit 108 transmits a user operation command to the on-vehicle image output device 101, and is, for example, a remote control. Note that even if the input unit 108 is a voice input microphone, the user can It may be configured to operate by voice recognition, or may be another input method. In addition, although the input unit 108 is connected to the in-vehicle image output device 101, the input unit 108 may be configured as a touch panel integrated with the display screen.
  • the display unit 109 is, for example, a liquid crystal display that displays an output image of the in-vehicle image output device 101.
  • the display unit 109 may be an EL (electret luminescence) display other than the liquid crystal, a CRT, or the like.
  • the display unit 109 is connected to the in-vehicle image output apparatus 101, it may be built in.
  • FIG. 3 is a flowchart of moving image data viewing processing representing a flow of processing when a user views moving image data. The details will be described below.
  • the user displays a moving picture menu screen for selecting moving picture data to be reproduced on the display unit 109 (step S301).
  • the control unit 105 reads the database file 201 stored in the DB management unit 104, creates a moving picture menu screen based on the file, and outputs it to the display unit 109.
  • This operation is executed, for example, by selecting the movie menu also for the top menu screen (not shown in the flowchart of the movie data viewing process in FIG. 3).
  • a dedicated button may be arranged in the input unit 108, and the moving picture menu screen may be displayed when the user presses the dedicated button.
  • FIG. 4 is an example of a moving picture menu screen displayed on the display unit 109.
  • a moving image data list 401 corresponding to information on moving image data stored in the database file 201 is displayed in the display unit 109.
  • a cursor 402 displayed on the left side of the title column of the moving image data list 401 indicates moving image data selected by the user, and is arbitrarily operated by the input unit 108. In FIG. 4, the cursor 402 is at the position of the title "drama 1", and when instructed by the input unit 108, the moving image data of "drama 1" is selected.
  • a button 403 is a button for displaying the next page of the moving picture data list 401, and the user can display the next page of the moving picture data list 401 by selecting the button 403.
  • a button 404 is a button for returning to the previous screen.
  • the items (“title”, “update date”, “bit rate”, “play time”) of the moving image data list 4 01 shown in FIG. 4 are displayed corresponding to the information contained in the database file 201.
  • Database file 20 Various items of information other than the items displayed in the moving image data list 401 are included in 1.
  • the items displayed in the moving image data list 401 may be other items other than the above, or the current items may be deleted.
  • a new item may be created and displayed for displaying a list.
  • the items included in database file 201 are not limited to this! /.
  • control unit 105 instructs the effect processing control unit 106 to prepare for effect processing image generation (step S302).
  • the effect processing control unit 106 instructed to prepare for effect processed image generation is the current position between the storage destination of each moving image data included in the moving image menu 1 screen and the on-vehicle image output device 101. Measure the communication effective speed of (step S 303).
  • each video data included in the video menu screen is the video data list 401, and the "title” is "Drama 1", “News 1", “News 2", “Sports 1” Seven animation data items of “Anime 1”, “Sport 2” and “Drama 2” are applicable.
  • the "title” is "Drama 1", “News 1", “News 2”, "Sports 1” Seven animation data items of “Anime 1”, “Sport 2” and “Drama 2” are applicable.
  • the storage destination of each video data is not displayed in the video data list 401, but is stored in "Storage destination of database file 201, ." Drama 1 "," Sport 1 “,” Animation 1 “, “Sports 2” and “Drama 2” and five video data are stored in server 1, and “News 1” and “News 2” and two video data are stored in server 2.
  • "server 1" and “server 2” are recorded in the "storage destination”. Actually, the server 1, the IP address of the server 2, etc. Information that can identify 2 may be recorded. It is assumed that the server 1 and the server 2 are installed, for example, in a home, and the user can access even a home external force.
  • the effect processing execution time which is the time to execute the effect processing on each moving image data is calculated (step S304).
  • This process is performed by the effect process control unit 106.
  • the time required for data buffering that is, the time until it becomes possible to start reproduction of the video data is calculated from the communication effective speed and the bit rate of each video data.
  • steps S303 and S304 described above is performed separately from the processing based on the operation of the input unit 108 by the user, so that the user can perform ordinary operations without being aware of it.
  • Data to be buffered is stored, for example, in a temporary recording unit (not shown) such as a RAM (Random Access Memory).
  • a temporary recording unit such as a RAM (Random Access Memory).
  • step S305 the user selects moving image data to be viewed through the input unit 108.
  • moving image data For example, it is assumed that "drama 1" is selected.
  • the effect-processed image generation unit 107 generates an effect-processed image and outputs it to the control unit 105 (step S306). Specifically, the effect processing image generation unit 107 receives, from the control unit 105, still image data (hereinafter, referred to as a first still image) of the image currently displayed on the display unit 109. Furthermore, the top frame of the moving image data selected in step S305, that is, the still image data of the next screen (hereinafter referred to as a second still image) is read from the DB management unit 104. Then, the effect processing image for switching the screen while performing the effect processing from the first still image to the second still image is output to the control unit 105. The control unit 105 outputs the effect processing image to the display unit 109.
  • a first still image the image currently displayed on the display unit 109.
  • the top frame of the moving image data selected in step S305 that is, the still image data of the next screen (hereinafter referred to as a second still image) is read from the
  • the content storage unit 110 (or the server 1 in the case of "drama 1") also decrypts the received moving image data by the decryption unit 103, passes the control unit 105, and displays it on the display unit 109.
  • FIG. 5 shows an example of screen switching from the first still image to the second still image, that is, an example of the effect-processed image.
  • the start image 501 is the first still image currently displayed on the display unit 109, and then the transitioning images 502 and 503 change the first still image power to the second still image, and the "drama 1"
  • the effect-processed image ends with the still image of the head frame, that is, the end image 504 which is the second still image.
  • the displayed first still image shifts to the right of the screen, and at the same time, the second still image also shows the screen left force.
  • FIG. 5 does not show the power of four images, actually, the image switching from the start image 501 to the end image 504 is continuously displayed. Then, the time until switching from the start image 501 to the end image 504 is the effect processing execution time calculated in step S306. That is, in the case of "drama 1", switching from the start image 501 to the end image 504 takes two seconds. The transition from the start image 501 to the end image 504, for example, shifts the first still image and the second still image at a uniform speed.
  • the user does not look at the same still image for a long time in screen switching at the time of moving image reproduction. Then, after the screen is switched, reproduction of the moving image data is started immediately. As a result, if the user is kept waiting until the playback of the video data starts, the user may not feel uncomfortable, operate correctly, or not! In addition, it is possible to start reproduction of motion picture data that is not visually boring by effect processing.
  • on-vehicle image output apparatus 101 is installed on a car. It may be installed on other mobile things, such as, but not limited to. Alternatively, similar effects can be obtained even when installed in a home. Also, depending on the installation environment, wired communication may be used instead of wireless communication.
  • the on-vehicle image output apparatus 101 is connected to the input unit 108 and the display unit 109, the input unit 108 and the display unit 109 may be integrated to form a touch panel monitor.
  • the DB management unit is HDD but not limited to it.
  • Other recording media such as semiconductor memory and recordable optical disc media may be used.
  • the motion picture menu screen may display a motion picture data list, or may display a thumbnail image of each motion picture data.
  • the still image of the first frame corresponding to the moving image data managed in the database file may be downloaded from the storage destination of each moving image data rather than being recorded in the HDD.
  • the database file is recorded in the DB management unit 104. If the storage destination of the video data is the video viewing site, the information necessary for the database file at the time of access is accessed from the video viewing site. A database file is created each time it is downloaded and accessed.
  • the effect processing control unit 106 is instructed by the control unit 105 to prepare for the generation of the effect processing image
  • the force processing is also performed. is not. For example, it may be measured periodically, such as every 30 seconds.
  • the communication effective speed measurement method is described as measuring and calculating the time until the reception is completed even if a file of a specific size is transmitted, it is limited to this. There is no.
  • the communication effective speed may be calculated by transmitting a ping (Packet IN Ternet Groper) command and measuring RTT (Round Trip Time) based on the response. it can. Or May be measured by any other known method.
  • the content storage unit 110 is installed in the home as the server 1 and the server 2, the present invention is not limited to this. It may be a portable terminal carried by the user. Alternatively, similar effects can be obtained with a video viewing site on the Internet.
  • the effect-processed image may be a wipe image other than this, which is shifted to the right as a wipe image.
  • the same effect can be obtained by setting the effect processing execution time to be controlled.
  • the force-processed image is not limited to the force S that shifts the first still image and the second still image at a uniform speed. Similar effects can be obtained with non-uniform speeds.
  • the effect processing execution time is calculated using the communication effective speed with the storage destination of the moving image data, and the decoding processing time of the decoding unit 103 and the display unit 109 display an image. Even if it takes into consideration the drawing processing time until it does.
  • the present invention is not limited to this. It may be stored in the storage unit built in the in-vehicle image output device 101. In this case, the effect processing execution time may be calculated in consideration of the reading speed of data for knocking out.
  • the moving image data is described as an example.
  • the present invention is not limited to this.
  • the same effect can be obtained when displaying a dedicated screen during playback.
  • similar effects can be obtained if the screen is switched, such as switching to another menu screen.
  • the image output device which is effective in the present invention may feel uncomfortable or not working properly if it is kept waiting until the start of the contents such as moving image data etc. It will be better to hold In addition, since the contents can be started visually without being visually dulled by the effect processing, it is useful for display control of screen switching when the reproduction of the contents accumulated in the contents storage unit is started.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 ユーザに不快感や不安感を抱かせることがないように画面の切り替えを行う画像出力装置を提供することを目的とする。車載用画像出力装置101は通信部102を経てコンテンツ保存部110から動画データを受信し、復号化部103にて復号する。効果処理制御部106は、動画データの再生を指示されてから再生開始までに要する時間を効果処理実行時間として算出し、効果処理画像生成部107に現在の画面から次画面へ遷移する画像を効果処理画像として生成させる。制御部105は効果処理画像表示後、動画データの画像を表示するように出力を切り替える。

Description

明 細 書
画像出力装置
技術分野
[0001] 本発明は、記録装置に蓄積されたコンテンツを実行する画像出力装置に関し、より 特定的には、動画データ再生時の画面が切り替わる時の表示制御を行う画像出力 装置に関する。
背景技術
[0002] 近年、遠隔地にあるサーバに蓄積された動画等のコンテンツをネットワークを経由 して再生する画像出力装置が実用化されている。コンテンツの一例であるデジタル 動画データは、 MPEG— 2 (Moving Picture Experts Group phase 2)など の圧縮方式により圧縮されており、それらを専用のハードウェアタイプのデコーダゃソ フトウエアタイプのデコーダでデコードすることで再生される。
[0003] このような圧縮データを再生する際、ある一定量のデータをメモリに一時保存する データバッファリングを行うことによりネットワーク経由でデジタル動画データを受信し ながら再生する場合でも再生品質を保つことができる。
[0004] しかしながら、このデータバッファリングのために、ユーザが再生操作を指示しても 即座にデジタル動画データの再生が開始されない。また、データバッファリングで一 時保存されるデータ量をユーザが設定可能であるとしてもネットワーク経由の場合は 通信実効速度に依存し、データバッファリングが完了して再生が開始されるまでの時 間をユーザは知ることができな 、。
[0005] このようにネットワークを経由した場合、画面表示までの時間は、通信速度やアプリ ケーシヨンのバッファの設定に左右される。
[0006] また、ネットワークを経由してコンテンツを再生する場合に限らず、画像出力装置に 内蔵された記録装置に蓄積されたコンテンツを再生するときも、記録装置の読み取り 速度や転送速度、処理装置の応答速度等が影響し、開始されるまでの時間をユー ザは知ることができない。
[0007] このような問題に対し、特許文献 1に記載の動画表示装置では、次画面の動画を表 示する際、動画データの読み取り等で処理時間が間に合わない場合は静止画を表 示することが提案されて 、る。
[0008] また、特許文献 2の音楽再生装置では、画面切り替え時に現在画面の消去や次画 面の出現に効果処理 (例えばフェードインやフ ードアウト)を施すことで、画面遷移 のアピール効果やユーザの娯楽性の向上を実現している。
特許文献 1 :特開 2001— 67489号公報
特許文献 2:特開 2004 - 157243号公報
発明の開示
発明が解決しょうとする課題
[0009] 特許文献 1記載の動画表示装置は、ユーザがしばらくの間、同じ静止画を見ること となり、その時間が長くなるとユーザは再生が始まるのが遅いという不快感ゃ、本当に 再生が始まるのだろうかと 、う不安感を抱 、てしまう。
[0010] また、特許文献 2の音楽再生装置は、画面切り替え時に効果処理を入れることでュ 一ザの不快感を低減することはできるが、効果処理をどれくら ヽの時間実行すればよ V、のかがわからな 、ため、画面が切り替わった後に動画再生が開始されな 、場合は 特許文献 1の動画表示装置と同様に静止画表示となってしまう。
[0011] 本発明は、上記問題に鑑みてなされた。すなわち、コンテンツの再生を開始する時 の画面切り替えをスムーズに行 、、ユーザに不快感ゃ不安感を抱かせることがな ヽ 画像出力装置を提供することを目的とする。
課題を解決するための手段
[0012] 本発明は、表示部に画像データを出力する画像出力装置を前提としている。本発 明は、画像データを表示する表示部と、ユーザの操作を受け付ける入力部と、前記 入力部が受け付けた所定のコンテンツの画像データ再生のために十分なデータバッ ファリング量を確保するのに必要な時間から、画面を切り替える時に表示する効果処 理画像の実行時間である効果処理実行時間を算出する効果処理制御部と、効果処 理実行時間に応じて効果処理画像を生成する効果処理画像生成部と、表示部に効 果処理画像を表示させる制御部とを備える。
[0013] これにより、ユーザが指示操作をしてから、コンテンツが開始されるまでの表示制御 が効果的に行われる。例えば、画面切り替え後に即座に次の画像を表示することが できる。
[0014] また、遠隔地に設置されたコンテンツ保存部に蓄積されたコンテンツをネットワーク を経由して取得する通信部をさらに備え、効果処理制御部は、通信部とコンテンツ保 存部との通信実効速度に基づいて効果処理実行時間を算出することが好ましい。
[0015] これにより、遠隔地に保存された動画データにおいても、画面切り替え後に動画デ ータの再生を即座に開始することができる。
[0016] また、通信部は、複数の遠隔地に設置されたコンテンツ保存部に蓄積されたコンテ ンッをネットワークを経由して取得し、効果処理制御部は、通信部とコンテンツ保存部 との通信実効速度それぞれに対応する効果処理実行時間を算出することが好ましい
[0017] これにより、遠隔地に保存された複数の動画データ力 ユーザが選択して再生する 場合に、どの画像データを選択しても表示制御が効果的に行われ、画面切り替え後 に即座に動画データの再生を開始することができる。
[0018] また、コンテンツを蓄積するコンテンツ保存部をさらに備え、効果処理制御部は、コ ンテンッ保存部から画像データ再生のために十分なデータバッファリング量を読み込 むのに必要な時間に基づ!/、て効果処理実行時間を算出することが好ま 、。
[0019] これにより、コンテンツ保存部を内蔵した構成においても、画面切り替え後に動画デ ータの再生を即座に開始することができる。
[0020] また、効果処理制御部は、効果処理実行時間の算出を定期的に実施することが好 ましい。
[0021] これにより、コンテンツの画像データの出力指示があると、即座に算出しておいた効 果処理実行時間を用いて効果処理画像を生成することができる。
[0022] また、コンテンツ保存部に蓄積されたコンテンツを管理するデータベースファイルを 記録する DB管理部をさらに備え、 DB管理部は、コンテンツ保存部に蓄積されたコン テンッそれぞれに対応した静止画像データを記録しており、効果処理画像生成部は 、静止画像データを用いて効果処理画像を生成することが好ま ヽ。
[0023] また、画像出力装置は、移動体に設置されることが好ま U、。 [0024] これにより、通信実効速度が不安定な移動体においても、画面切り替え後に動画 データの再生を即座に開始することができる。
発明の効果
[0025] 以上説明したように、本発明によれば、コンテンツの再生を開始する時の画面切り 替えの表示制御により、ユーザに不快感ゃ不安感を抱力せない画像出力装置を提 供することができる。
図面の簡単な説明
[0026] [図 1]図 1は、本発明の実施の形態における車載用画像出力装置のブロック図である
[図 2]図 2は、本発明の実施の形態におけるデータベースファイルの一例を示す図で ある。
[図 3]図 3は、本発明の実施の形態における動画データ視聴処理のフロー図である。
[図 4]図 4は、本発明の実施の形態における動画メニュー画面の一例を示す図である
[図 5]図 5は、本発明の実施の形態における効果処理画像の一例を示す図である。 符号の説明
[0027] 101 車載用画像出力装置
102 通信部
103 復号化部
104 DB管理部
105 制御部
106 効果処理制御部
107 効果処理画像生成部
108 入力部
109 表示部
110 コンテンソ保存 §
201 データベースファイル
401 動画データリスト 402 カーソル
403, 404 ボタン
501 スタート画像
502, 503 遷移中の画像
504 エンド画像
発明を実施するための最良の形態
[0028] 以下、本発明の実施形態に係る画像出力装置について、図面に従って詳細に説 明する。なお、本実施形態では、画像出力装置は車に設置され、移動可能なもので あると仮定する。以後、画像出力装置を車載用画像出力装置 101と記す。さらに、車 載用画像出力装置 101と通信によって送受信が可能で、動画データや音楽データ 等のコンテンツが保存されたコンテンッ保存部 110が、例えば家庭内に設置されて いるとして説明する。
[0029] 図 1において、車載用画像出力装置 101は、通信部 102、復号化部 103、 DB管理 部 104、制御部 105、効果処理制御部 106、及び効果処理画像生成部 107を備え る。また、車載用画像出力装置 101は入力部 108と表示部 109に接続される。
[0030] 通信部 102はコンテンツ保存部 110と通信を行う。通信は、例えば、無線 LAN (IE EE802. 11a, l ib, l lg等)を用いてインターネット経由で行われる。なお、通信は 無線 LANに限られるものではなぐ携帯電話などの他の通信が用いられてもよい。ま た、インターネット経由ではなくポータブル端末との P2P通信等であってもよい。
[0031] 復号ィ匕部 103は、コンテンツ保存部 110から送信されるデジタル動画データ(以後 、動画データと記し、当該動画データを通信により取得し再生するとして説明する。 ) を通信部 102を経て受信し、復号化する。この動画データは、例えば、 MPEG- 2 ( Moving Picture Experts Group phase 2)で圧縮されているものとする。そし て、復号ィ匕部 103は、復号ィ匕した動画データを制御部 105へ出力する。なお、動画 データの圧縮方式は MPEG— 2に限られたものではなぐ他の圧縮方式で圧縮され て!、るものであってもよ!/、。
[0032] DB管理部 104は、動画データや音楽データといったデジタルコンテンツを管理す るためのデータベースファイルが記録されている、例えば、 HDD (Hard Disk Dri ve)である。このデータベースファイルには、例えば、ユーザが再生可能なデジタルコ ンテンッがリストとして管理されている。また、本実施例では、 DB管理部 104には、デ ータベースファイル内で管理されている動画データそれぞれに対応した先頭フレー ムの静止画像データが記録されて 、るとする。
[0033] 動画データのデータベースファイルの一例を図 2に示す。データベースファイル 20 1には、図 2に示すようにタイトル、ファイル名、更新日時、対応する静止画ファイル名 等の動画データに関する様々な情報が含まれている。なお、実際のデータべ一スフ アイル 201はデジタルデータとして DB管理部 104に記録されている。データベース ファイル 201の内容については後述する。
[0034] 制御部 105は、表示部 109への画像信号の出力を制御する。具体的には、復号ィ匕 部 103から出力される復号ィ匕された動画データや DB管理部 104から読み込んだデ ータベースファイルを基に作成されたメニュー画面、効果処理画像生成部 107から 出力される効果処理画像を切り替えて表示部 109へ出力する。効果処理画像とは、 現在の画像から次の画像への画面切り替えに特殊効果を施す画像のことを表してお り、例えば、ワイプ画像である。また、制御部 105は、適切なタイミングで効果処理制 御部 106に対して効果処理画像生成の準備を指示する。
[0035] 効果処理制御部 106は、コンテンツ保存部 110に保存されたコンテンツを表示部 1 09に出力するまでに必要な時間である効果処理実行時間を算出する。本実施例の 具体的な処理を説明すると、制御部 105から効果処理画像生成の準備を指示される と、各コンテンツが保存されているコンテンツ保存部 110との通信実効速度を測定す るために、効果処理制御部 106は、通信部 102を経てコンテンツ保存部 110ヘアク セスする。そして、効果処理制御部 106は、測定した通信実効速度を用いて、効果 処理画像の実行時間である効果処理実行時間を算出し、効果処理画像生成部 107 へ効果処理画像生成を指示する。効果処理画像生成の指示を受けた効果処理画像 生成部 107は、効果処理実行時間に応じた効果処理画像を生成し、制御部 105へ 出力する。これらの処理についての詳細は後述する。
[0036] 入力部 108は、ユーザ操作コマンドを車載用画像出力装置 101へ送信する、例え ば、リモコンである。なお、入力部 108は音声入力用マイクであってもよぐユーザは 音声認識によって操作する構成としてもよいし、他の入力方法であってもよい。また、 入力部 108は車載用画像出力装置 101に接続されるとしたが、表示画面と一体とな つたタツチパネル等として内蔵される構成としてもよい。
[0037] 表示部 109は、車載用画像出力装置 101の出力画像を表示する、例えば、液晶デ イスプレイである。なお、表示部 109は、液晶以外の EL (エレクト口ルミネッセンス)デ イスプレイや CRTなどであってもよい。また、表示部 109は、車載用画像出力装置 10 1に接続されるとしたが、内蔵される構成としてもよい。
[0038] 図 3は、ユーザが動画データを視聴する際の処理の流れを表した動画データ視聴 処理のフロー図である。以下にその詳細を説明する。
[0039] まず、ユーザは再生する動画データを選択するための動画メニュー画面を表示部 1 09に表示する (ステップ S301)。具体的には、制御部 105が DB管理部 104に記録 されて 、るデータベースファイル 201を読み出し、それを基に動画メニュー画面を作 成し、表示部 109へ出力する。この操作は、例えば、トップメニュー画面力も動画メ- ユーを選択すること(図 3の動画データ視聴処理フロー図では省略)で実行される。あ るいは、入力部 108に専用ボタンが配置され、ユーザが当該専用ボタンを押下するこ とで動画メニュー画面が表示されてもょ 、。
[0040] 図 4は、表示部 109に表示される動画メニュー画面の一例である。表示部 109内に データベースファイル 201に格納される動画データに関する情報に対応する動画デ 一タリスト 401が表示されている。動画データリスト 401のタイトル列の左横に表示さ れるカーソル 402は、ユーザが選択している動画データを示すもので、入力部 108で 任意に操作される。図 4では、カーソル 402は、タイトル"ドラマ 1"の位置にあり、ここ で入力部 108から決定の指示があると"ドラマ 1"の動画データが選択されたことにな る。ボタン 403は動画データリスト 401の次ページを表示させるためのボタンであり、 ユーザはこのボタン 403を選択することで動画データリスト 401の次ページを表示す ることができる。ボタン 404は 1つ前の画面に戻るためのボタンである。
[0041] 次に動画データリスト 401の項目について説明する。図 4に示す動画データリスト 4 01の項目("タイトル"、 "更新日時"、 "ビットレート"、 "再生時間")は、データベース ファイル 201に含まれる情報に対応したものが表示される。データベースファイル 20 1には動画データリスト 401で表示される項目以外にも様々な情報が含まれている。 なお、動画データリスト 401に表示される項目はこれに限られたものではなぐ他の項 目を追カ卩したり、あるいは、現在の項目を削除してもよい。更に、データべ一スフアイ ル 201の内容から、リスト表示用に新たな項目が作成され、表示されてもよい。また、 データベースファイル 201に含まれる項目もこれに限られたものではな!/、。
[0042] ステップ S301で動画メニュー画面が表示されると、制御部 105は、効果処理制御 部 106に効果処理画像生成の準備を指示する (ステップ S302)。
[0043] 次に、効果処理画像生成の準備を指示された効果処理制御部 106は、動画メ-ュ 一画面に含まれる各動画データの保存先と車載用画像出力装置 101との間の現在 の通信実効速度を測定する (ステップ S 303)。
[0044] ここで、動画メニュー画面に含まれる各動画データとは、動画データリスト 401でい うと、 "タイトル"が、 「ドラマ 1」、 「ニュース 1」、 「ニュース 2」、 「スポーツ 1」、 「アニメ 1」、 「スポーツ 2」、「ドラマ 2」、の 7つの動画データが該当する。つまり、表示されている動 画メニュー画面から選択可能な動画データすベてを対象とすることが好ま Uヽ。これ は、ユーザが動画データを選択するまでに、選択する可能性のある動画データに対 する通信実効速度の測定と効果処理実行時間の算出が終わる必要があるためであ る。各動画データの保存先は動画データリスト 401には表示されないが、データべ一 スファイル 201の"保存先,,に記録されている。 「ドラマ 1」、 「スポーツ 1」、 「アニメ 1」、 「 スポーツ 2」、「ドラマ 2」と 5つの動画データがサーバ 1に保存されており、「ニュース 1 」と「ニュース 2」と 2つの動画データがサーバ 2に保存されている。なお、データべ一 スファイル 201において、 "保存先"には「サーバ 1」、「サーバ 2」と記録されている力 実際にはサーバ 1やサーバ 2の IPアドレス等の具体的にサーバ 1、 2が特定できる情 報が記録されていてもよい。このサーバ 1とサーバ 2は、例えば、家庭内に設置され、 ユーザは宅外力もでもアクセスが可能なものであると仮定する。
[0045] したがって、ここではサーバ 1とサーバ 2が車載用画像出力装置 101に接続される コンテンツ保存部 110となる。よって、効果処理画像生成の準備を指示された効果処 理制御部 106は、車載用画像出力装置 101との間の現在の通信実効速度を測定す るために通信部 102を経て、サーバ 1とサーバ 2へアクセスする。具体的には、例え ばサーバ 1とサーバ 2に対して、ある特定のサイズ(例えば lMbyte : M= 1000, 00 0)のファイルを送信して、その受信が完了するまでの時間を測定することで、通信実 効速度を算出する。
[0046] そして、ステップ S303で算出した通信実効速度を用いて、各動画データに対して 効果処理を実行する時間である効果処理実行時間を算出する (ステップ S304)。こ の処理は効果処理制御部 106で行われる。具体的には、例えば通信実効速度と各 動画データのビットレートから、データバッファリングに必要となる時間、すなわち、動 画データが再生開始可能になるまでの時間が算出される。
[0047] 例えば、図 4でカーソル 402が示している"ドラマ 1"であれば、再生のためのバッフ ァサイズが 5秒分のデータ量であるとすると、 4Mbps (bitZsecond) X 5秒 = 20Mbi tを受信するまでの時間を算出する。サーバ 1との通信実効速度が 10Mbps (bit/se cond)であったとすると、 20÷ 10 = 2秒が効果処理実行時間となる。このようにして、 各動画データに対してそれぞれ効果処理実行時間を算出する。
[0048] 上記ステップ S303、 S304の処理は、ユーザによる入力部 108の操作に基づく処 理とは別に実行されるため、ユーザは意識することなぐ普段どおりの操作が行える。
[0049] なお、バッファリングするデータは、例えば、 RAM (Random Access Memory) 等の図示しな 、一時記録部に保存される。
[0050] そして、ユーザが入力部 108を介して視聴する動画データを選択する (ステップ S3 05)。ここでは、例えば、 "ドラマ 1"が選択されたと仮定する。
[0051] 次に、効果処理画像生成部 107は効果処理画像を生成し、制御部 105へ出力す る (ステップ S306)。具体的には、効果処理画像生成部 107は、制御部 105から、現 在、表示部 109に表示されている画像の静止画像データ (以後、第一静止画像と記 す)を受信する。更に、ステップ S305にて選択された動画データの先頭フレーム、す なわち、次画面の静止画像データ(以後、第二静止画像と記す)を DB管理部 104か ら読み込む。そして、第一静止画像から第二静止画像へ、効果処理を施しながら画 面を切り替える効果処理画像を制御部 105へ出力する。制御部 105は効果処理画 像を表示部 109へ出力する。
[0052] 効果処理画像の表示が完了すると、表示部 109には第二静止画像が表示されて いることになる。そして、コンテンツ保存部 110 ("ドラマ 1"の場合はサーバ 1)カも受 信した動画データを復号ィ匕部 103で復号ィ匕し、制御部 105を経て表示部 109へ表 示する。
[0053] 図 5は、第一静止画像から第二静止画像への画面切り替えの様子、すなわち、効 果処理画像の一例である。スタート画像 501は、現在、表示部 109に表示されている 第一静止画像であり、その後、遷移中の画像 502および 503は第一静止画像力も第 二静止画像へ遷移し、 "ドラマ 1"の先頭フレームの静止画像、すなわち、第二静止 画像であるエンド画像 504で効果処理画像が終了となる。
[0054] 図 5の例では、表示されている第一静止画像が画面右へシフトしていき、同時に第 二静止画像が画面左力も現れる。図 5では、 4枚の画像し力示していないが、実際に は、スタート画像 501からエンド画像 504までの画像切り替えが連続的に表示される 。そして、スタート画像 501からエンド画像 504に切り替わるまでの時間がステップ S3 06で算出された効果処理実行時間である。つまり、 "ドラマ 1"の場合はスタート画像 501から 2秒間かけてエンド画像 504に切り替わる。スタート画像 501からエンド画像 504への遷移は、例えば、均一な速度で第一静止画像と第二静止画像がシフトする
[0055] そして、スタート画像 501からエンド画像 504へ切り替わる 2秒の間に動画データを 再生するためのデータバッファリングが完了する。したがって、エンド画像 504が表示 された後は連続して動画データの再生が開始される。
[0056] 以上、フロー図を用いて車載用画像出力装置 101の動画データ視聴処理につい て詳細を説明した。
[0057] このように、本実施形態の車載用画像出力装置 101では、ユーザは動画再生時の 画面切り替えにおいて同じ静止画像を長時間見ることがなくなる。そして、画面が切り 替わった後は、即座に動画データの再生が開始される。この結果、ユーザは動画デ ータの再生開始まで待たされると 、う不快感ゃ、正しく動作しな 、のではな!/、かと!/、う 不安感を抱力なくてよくなる。また、効果処理により視覚的にも退屈することなぐ動 画データの再生を開始することができる。
[0058] なお、本実施の形態では、車載用画像出力装置 101は車に設置されるとした力 こ れに限られたものではなぐ他の移動可能なものに設置されてもよい。あるいは、家 庭内などに設置した場合でも同様の効果を得ることができる。また、設置環境によつ ては無線通信でなく有線通信を用いてもょ 、。
[0059] また、車載用画像出力装置 101は入力部 108と表示部 109に接続されるとしたが、 入力部 108と表示部 109を統合してタツチパネルモニタとしてもよい。また、 DB管理 部は HDDとしたがこれに限られたものではな 、。半導体メモリや記録可能な光学式 ディスクメディアなど、他の記録媒体でもよい。
[0060] また、 HDDには、データベースファイルとデータベースファイル内で管理されてい る動画データに対応した先頭フレームの静止画像を記録しておくとしたが、他のデー タを HDDに記録してお!、てもよ!/、。
[0061] また、動画メニュー画面は動画データリストを表示するとした力 各動画データのサ ムネイル画像を表示するなどとしてもよ 、。
[0062] また、データベースファイル内で管理されている動画データに対応した先頭フレー ムの静止画像は、 HDDに記録しておくのではなぐ各動画データの保存先からダウ ンロードするとしてもよい。本実施の形態では、データベースファイルは DB管理部 10 4に記録されているとした力 動画データの保存先が動画視聴サイトの場合には、ァ クセス時にデータベースファイルに必要な情報が動画視聴サイトからダウンロードさ れ、アクセスする度にデータベースファイルが作成されてもょ 、。
[0063] また、コンテンツ保存部 110との通信実効速度の測定は効果処理制御部 106が制 御部 105から効果処理画像生成の準備を指示されて力も行うとしたが、これに限られ たものではない。例えば、 30秒毎など定期的に測定しておくようにしてもよい。本構 成によって、コンテンツの画像データの出力指示があると、即座に算出しておいた効 果処理実行時間を用いて効果処理画像を生成することがきる。
[0064] また、通信実効速度の測定方法は、ある特定のサイズのファイルを送信してもら 、、 その受信が完了するまでの時間を測定して算出するとしたが、これに限られたもので はない。例えば、 TCP (Transmission Control Protocol)通信を用いる場合など は、 ping (Packet INternet Groper)コマンドを送信して、その応答により RTT(R ound Trip Time)を測定することで通信実効速度を算出することができる。あるい は、これ以外の他の公知の方法で測定してもよい。
[0065] また、コンテンツ保存部 110は、サーバ 1およびサーバ 2として家庭内に設置される としたが、これに限られたものではない。ユーザが携帯している携帯端末などでもよい 。あるいは、インターネット上にある動画視聴サイトなどでも同様の効果を得ることがで きる。
[0066] また、効果処理画像はワイプ画像として右にシフトするとした力 これ以外のワイプ 画像であってもよい。あるいは、他の特殊効果を施した画面切り替えであっても、効 果処理実行時間を制御するように設定すれば同様の効果を得ることができる。
[0067] また、効果処理画像にお!、て、均一な速度で第一静止画像と第二静止画像がシフ トするとした力 Sこれに限られたものではない。不均一な速度であっても同様の効果を 得ることができる。
[0068] また、動画データ再生のために 5秒分のデータをバッファリングするとした力 これに 限られたものではな 、。復号ィ匕部 103の性能などに応じて適切な量を設定すればよ い。
[0069] また、効果処理実行時間は動画データの保存先との通信実効速度を用いて算出 するとした力 これにカ卩えて復号ィ匕部 103の復号処理時間や表示部 109に画像を表 示するまでの描画処理時間を考慮するとしてもよ ヽ。
[0070] また、動画データ等のコンテンツはコンテンツ保存部 110に保存されているとしたが 、これに限られたものではない。車載用画像出力装置 101に内蔵された蓄積部に保 存されているとしてもよい。この場合は、ノ ッファリングのためのデータの読み込み速 度などを考慮して効果処理実行時間を算出すればよい。
[0071] また、本実施例では動画データを例として説明した力 これに限られたものではな い。例えば、音楽データであっても、再生中に専用画面を表示する場合などは同様 の効果を得ることができる。あるいは、他のメニュー画面への切り替えなど、画面が切 り替わる場合であれば同様の効果を得ることができる。
[0072] 上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技 術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成 を採用することが可能である。 産業上の利用可能性
以上のように、本発明に力かる画像出力装置は、動画データ等のコンテンツの開始 まで待たされると ヽぅ不快感や、正しく動作しな ヽのではな!/ヽかと!/ヽぅ不安感を抱かな くてよくなる。また、効果処理により視覚的にも退屈することなぐコンテンツを開始す ることができるので、コンテンツ保存部に蓄積されたコンテンツの再生を開始する時の 画面切り替えの表示制御等において有用である。

Claims

請求の範囲
[1] 蓄積されたコンテンツの画像データを出力する画像出力装置であって、
画像データを表示する表示部と、
ユーザの操作を受け付ける入力部と、
前記入力部が受け付けた所定のコンテンツの画像データ再生のために十分なデー タバッファリング量を確保するのに必要な時間から、画面を切り替える時に表示する 効果処理画像の実行時間である効果処理実行時間を算出する効果処理制御部と、 前記効果処理実行時間に応じて、前記効果処理画像を生成する効果処理画像生 成部と、
前記表示部に前記効果処理画像を表示させる制御部とを備える、画像出力装置。
[2] 遠隔地に設置されたコンテンツ保存部に蓄積されたコンテンツをネットワークを経由 して取得する通信部をさらに備え、
前記効果処理制御部は、前記通信部と前記コンテンッ保存部との通信実効速度に 基づいて前記効果処理実行時間を算出することを特徴とする、請求項 1に記載の画 像出力装置。
[3] 前記通信部は、複数の遠隔地に設置されたコンテンツ保存部に蓄積されたコンテ ンッをネットワークを経由して取得し、
前記効果処理制御部は、前記通信部と前記コンテンツ保存部との通信実効速度そ れぞれに対応する前記効果処理実行時間を算出することを特徴とする、請求項 2に 記載の画像出力装置。
[4] コンテンツを蓄積するコンテンツ保存部をさらに備え、
前記効果処理制御部は、前記コンテンツ保存部力 前記画像データ再生のために 十分なデータバッファリング量を読み込むのに必要な時間に基づいて前記効果処理 実行時間を算出することを特徴とする、請求項 1に記載の画像出力装置。
[5] 前記効果処理制御部は、前記効果処理実行時間の算出を定期的に実施すること を特徴とする、請求項 1に記載の画像出力装置。
[6] 蓄積されたコンテンツを管理するデータベースファイルを記録する DB管理部をさら に備え、 前記 DB管理部は、蓄積されたコンテンツそれぞれに対応した静止画像データを記 録しており、
前記効果処理画像生成部は、前記静止画像データを用いて前記効果処理画像を 生成することを特徴とする、請求項 1に記載の画像出力装置。
移動体に設置されることを特徴とする、請求項 1〜6いずれかに記載の画像出力装 置。
PCT/JP2007/057863 2006-04-20 2007-04-10 画像出力装置 WO2007123014A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008512065A JPWO2007123014A1 (ja) 2006-04-20 2007-04-10 画像出力装置
US12/294,075 US20090125836A1 (en) 2006-04-20 2007-04-10 Image output device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006116997 2006-04-20
JP2006-116997 2006-04-20

Publications (1)

Publication Number Publication Date
WO2007123014A1 true WO2007123014A1 (ja) 2007-11-01

Family

ID=38624920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/057863 WO2007123014A1 (ja) 2006-04-20 2007-04-10 画像出力装置

Country Status (3)

Country Link
US (1) US20090125836A1 (ja)
JP (1) JPWO2007123014A1 (ja)
WO (1) WO2007123014A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417787B2 (en) * 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
US20110199318A1 (en) * 2010-02-12 2011-08-18 Microsoft Corporation Multi-layer user interface with flexible parallel movement
US8473860B2 (en) * 2010-02-12 2013-06-25 Microsoft Corporation Multi-layer user interface with flexible parallel and orthogonal movement
US8863039B2 (en) 2011-04-18 2014-10-14 Microsoft Corporation Multi-dimensional boundary effects

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063458A (ja) * 1996-08-22 1998-03-06 Hitachi Ltd 通信ネットワークの表示方法とその操作方法ならびにそのための装置
JPH11219445A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 画像表示装置、画像表示方法、および画像表示プログラム記録媒体
JP2000050230A (ja) * 1998-07-30 2000-02-18 Toshiba Corp 双方向テレビ放送システム
JP2003230059A (ja) * 2002-02-01 2003-08-15 Canon Inc 受信装置
JP2003230125A (ja) * 2002-02-05 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> ストリーム配信自動切り替え制御方法及びシステム
JP2005017867A (ja) * 2003-06-27 2005-01-20 Yamaha Corp 画像表示装置
JP2005277847A (ja) * 2004-03-25 2005-10-06 Ntt Comware Corp 画像再生システム、画像送信装置、画像受信装置、画像再生方法、画像再生プログラム、記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0323245D0 (en) * 2003-10-03 2003-11-05 Fujitsu Ltd Soft handover techniques
JP2005301908A (ja) * 2004-04-15 2005-10-27 Toshiba Corp 情報機器遠隔操作システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063458A (ja) * 1996-08-22 1998-03-06 Hitachi Ltd 通信ネットワークの表示方法とその操作方法ならびにそのための装置
JPH11219445A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 画像表示装置、画像表示方法、および画像表示プログラム記録媒体
JP2000050230A (ja) * 1998-07-30 2000-02-18 Toshiba Corp 双方向テレビ放送システム
JP2003230059A (ja) * 2002-02-01 2003-08-15 Canon Inc 受信装置
JP2003230125A (ja) * 2002-02-05 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> ストリーム配信自動切り替え制御方法及びシステム
JP2005017867A (ja) * 2003-06-27 2005-01-20 Yamaha Corp 画像表示装置
JP2005277847A (ja) * 2004-03-25 2005-10-06 Ntt Comware Corp 画像再生システム、画像送信装置、画像受信装置、画像再生方法、画像再生プログラム、記録媒体

Also Published As

Publication number Publication date
US20090125836A1 (en) 2009-05-14
JPWO2007123014A1 (ja) 2009-09-03

Similar Documents

Publication Publication Date Title
JP3195284B2 (ja) 動画再生制御方法およびその方法が適用される画像表示装置
JP4730590B2 (ja) 制御装置および方法、情報処理装置および方法、並びにプログラム
JP5211569B2 (ja) コンテンツ再生装置、コンテンツ再生方法、およびプログラム
JP2008262686A (ja) 同報通信データを記録するための方法、および、装置
US20080175559A1 (en) Image process apparatus and method thereof
TWI390980B (zh) A content reproduction apparatus, a content reproduction method, a content reproduction program, and a content reproduction system
JP2006041888A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
WO2007123014A1 (ja) 画像出力装置
JP2003209807A (ja) 動画再生方法及び装置
JP3478515B2 (ja) データを記録再生する装置および方法
JP2008109434A (ja) ストリームデータ再生システム、ストリームデータ再生システム用送信装置、ストリームデータ再生システム用受信装置及びストリームデータ再生システム用プログラム
JP2007089025A (ja) 通話中にコンテンツの視聴可能な情報処理装置、情報処理方法、および、プログラム
JP2008085934A (ja) リモート映像再生システムおよびレジューム再生方法
KR100763705B1 (ko) 화상 처리 장치 및 화상 처리 방법 및 기록 매체
JP2006262437A (ja) 映像配信システム
JP3838485B2 (ja) 映像配信装置および映像再生装置
JP2006332773A (ja) 制御装置および方法、並びにプログラム
JP2006339980A (ja) 映像再生装置
JP5875837B2 (ja) コンテンツ再生装置、コンテンツ再生方法、プログラム、および記録媒体
JP6051066B2 (ja) カラオケ用の歌唱動画再生システム
JP2002199345A (ja) 動画像検索装置
JP4678495B2 (ja) 情報処理装置および方法、並びにプログラム
JP2006245899A (ja) 再生装置、コンテンツ再生システムおよびプログラム
KR100564392B1 (ko) 미디어 전송기의 화면검색 재생방법
JP3425297B2 (ja) システムストリーム作成装置とシステムストリーム作成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07741299

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12294075

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2008512065

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2008142536

Country of ref document: RU

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 07741299

Country of ref document: EP

Kind code of ref document: A1