WO2002079966A1 - Dispositif et procédé de présentation de contenus interactifs - Google Patents

Dispositif et procédé de présentation de contenus interactifs Download PDF

Info

Publication number
WO2002079966A1
WO2002079966A1 PCT/JP2001/002581 JP0102581W WO02079966A1 WO 2002079966 A1 WO2002079966 A1 WO 2002079966A1 JP 0102581 W JP0102581 W JP 0102581W WO 02079966 A1 WO02079966 A1 WO 02079966A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
interactive
image
content
combination
Prior art date
Application number
PCT/JP2001/002581
Other languages
English (en)
French (fr)
Inventor
Fumio Honda
Seiki Shibata
Eiji Hasegawa
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2001/002581 priority Critical patent/WO2002079966A1/ja
Priority to EP01917555A priority patent/EP1376321A1/en
Priority to JP2002578126A priority patent/JPWO2002079966A1/ja
Publication of WO2002079966A1 publication Critical patent/WO2002079966A1/ja
Priority to US10/669,702 priority patent/US20040056892A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface

Definitions

  • the present invention relates to the presentation of content including images, sounds, texts, and the like, and more particularly, to an interactive content presentation device that displays interactive content in which the display content of the content changes according to a viewer's operation on the content. It relates to a method of presenting the content. Background art
  • This interactive content refers to content configured so that the viewer operates the content displayed on the screen of a television or the like, and the displayed content changes in response to the operation. Specifically, for example, it refers to content that displays a button-shaped image on a video and switches to the corresponding image when this button is selected using an input device such as a remote controller.
  • the image that the viewer operates on like the button above is called the dialog component (or dialog component image).
  • the distance between the viewer and a display device such as a television monitor that displays the content is determined by the optimal visual distance in accordance with the display screen size. For example, in the current high-definition broadcasting, it is said that it is better to watch the screen away from the screen only about three times the vertical length of the screen. I have. Therefore, when viewing a television broadcast, the viewer views the image from a position distant from the display device, and operates a remote control device (hereinafter, referred to as a remote control) to select a channel and adjust the volume. Often.
  • a remote control a remote control device
  • This data broadcast has a larger amount of information and a larger number of broadcast programs than conventional television broadcasts, and is characterized by clear images. Therefore, it is anticipated that even personal computers (hereafter, “Songsong”), which are spreading rapidly, will have more opportunities to watch this overnight broadcast.
  • the position on the monitor is usually indicated by a pointing device such as a mouse or an evening panel, which indicates the position on the screen of the display device.
  • a display component such as a monitor for displaying images is provided with a display component such as a remote controller or the like, which is prepared on the assumption that an instruction is given in the vertical and horizontal directions.
  • the interactive part is designated by a coordinate input unit for displaying and indicating a coordinate on the screen of the display unit, for example, a sunset panel or a mouse
  • the coordinates designated by the coordinate input unit are converted to the coordinates of the above and below. It is converted into a combination of left and right directions by the coordinate conversion unit, and the target interactive component is specified by the pointing device.
  • the coordinates specified by the pointing device are converted to a combination of up, down, left, and right directions, so the content created on the premise of specifying and selecting with a remote control is also specified and selected by the pointing device. It becomes possible.
  • the present invention provides a display unit that displays an image, a coordinate input unit that specifies coordinates on a screen of the display unit, and a coordinate unit and a display unit that are specified by the coordinate input unit.
  • a coordinate conversion unit that converts the positional relationship between a given position on the screen and one or more combinations of directions, and outputs this combination from a detector that receives a specified signal, for example, a signal from a remote control
  • a signal conversion unit that converts the signal into a signal corresponding to a given direction instruction signal.
  • the present invention provides a content for processing a signal input to an interface unit and displaying the image on a display unit as an image.
  • a coordinate processing unit, and the coordinate conversion unit determines the positional relationship between the coordinates specified by the coordinate input unit for specifying the coordinates on the screen of the display unit and the predetermined position displayed on the display unit.
  • Interactive content in which a conversion into a combination of a plurality of directions is performed, the converted one direction or combination is converted into a predetermined signal in an emulator section, and the converted predetermined signal is input to the content processing section. It is an object to provide a presentation device.
  • the present invention provides a content processing section for processing a signal input via an interface section into image data, a display section for displaying the image data, and designating coordinates on a screen of the display section.
  • a coordinate conversion unit that converts one direction or a combination of a plurality of directions, an Emiure unit that converts one direction or this combination into a predetermined signal, and a predetermined signal that is converted by this Emiureta unit It is an object of the present invention to provide an interactive content presentation device which is characterized by inputting the content to a content processing unit.
  • the specific position indicates the interactive part image displayed on the display unit.
  • “via another specific position” refers to the interactive part image displayed on the display unit, other than the interactive part image displayed at the first specific position.
  • the present invention also provides a method for receiving these contents in order to display the contents recorded on a content storage medium transmitted via radio waves or a line on the interactive content presentation apparatus.
  • the purpose of the present invention is to provide an interactive content presentation device provided with an in-fuse unit for the purpose.
  • the present invention includes a storage unit for storing a relationship between two interactive components of a content by combining one or a plurality of directions. It is an object to provide a presentation device.
  • the present invention provides a first step of specifying coordinates on a screen, and a position between a predetermined position on the screen and the coordinates specified in the first step.
  • a content presentation method including a second step of converting a relationship into a combination of one or more directions and a third step of converting the converted combination of one or more directions into a predetermined signal is provided. Offer.
  • the present invention provides a first step of designating a first position in an image, and a second step of specifying a positional relationship between the second position and the first position in the image.
  • the present invention provides a recording medium and a program recording the above method, and an interactive content presentation device equipped with the recording medium and the program.
  • the present invention provides a display unit for displaying a content and a dialog component image corresponding to the content on a screen, and the display unit for inputting data by selecting a dialog component image.
  • the interactive content presentation device having a coordinate input unit for inputting a coordinate corresponding to the image, a correspondence between a plurality of interactive part images displayed on a screen and a force key for selecting the interactive part image
  • a step of generating a combination of cursor key directions from the above correspondence, and designating an interactive part image based on the generated combination of cursor key directions Interactive Konten' characterized by comprising the steps BRIEF DESCRIPTION OF THE DRAWINGS
  • the present invention provides a presentation program and an interactive content presentation device for selecting an oral image displayed on a screen based on the program.
  • FIG. 1 is a diagram showing an example of a display screen for showing an outline of the present invention.
  • (A) of FIG. 2 shows a case where an interactive component on the screen shown in FIG. 1 is selected by a remote controller)
  • FIG. 7B is a diagram illustrating a case
  • FIG. 8B is a diagram illustrating a case where a dialog component is selected by a pointing device.
  • FIG. 3 is a schematic diagram showing an example of the content presentation device of the present invention.
  • FIG. 4 is a schematic diagram of an image of an interactive content shown as an example for explaining the content presentation device of the present invention.
  • FIG. 5 is a diagram showing the operation of the interactive content shown in FIG.
  • FIG. 6 is a diagram showing a definition of a jump-by-step operation, which is an operation of the interactive content shown in FIG.
  • FIG. 7 is a diagram showing a correspondence relationship between the direction operation of the remote controller, the movement of the focus, and the change of the field value when the interactive content shown in FIG. 4 is operated by the remote controller.
  • FIG. 8 is a block diagram showing an outline of the content presentation device shown in the first embodiment.
  • FIG. 9 is a diagram showing an example of a processing flowchart of a route search used in the first embodiment.
  • FIG. 10 is a diagram showing an example of a route search in the first embodiment.
  • FIG. 11 is a block diagram showing an outline of the content presentation device shown in the second embodiment.
  • FIG. 12 is a diagram showing a positional relationship between two dialogue components by a combination of directions.
  • FIG. 13 is a block diagram showing an outline of the third embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 schematically shows an image presented on a screen 20 of a monitor of a television device or a personal computer.
  • Buttons A 10, B 11, and C 12 in this screen 20 are dialog components. That is, when the button A 10 is set to the home position, when the viewer presses the down key of the remote controller, the button B blinks, changes its shape, or changes the display color. It clearly indicates that B was selected. Then, when the enter key on the remote control is pressed, this button B is selected and determined, and an image or the like corresponding to this selection is displayed in the area 21. In this way, the dialogue component is created so that the user interacts with the remote controller or the like (in the above example, the viewer selects the dialogue component on the screen).
  • buttons B and C are selected with a remote controller
  • buttons B and C are selected with a mouse as a pointing device
  • Fig. 2 (B) a case where buttons B and C are selected with a mouse as a pointing device
  • FIGS. 1 and 2 the buttons A, B, and C, which are the dialog components, can be arranged arbitrarily.
  • the buttons are selected using the up and down keys of the remote control. That is, to change the selection from button A 10 to button C, press the down key of the remote control twice.
  • button A 10 is the home position, and that button C 12 can be selected as shown in Fig. 2 (B).
  • Cursor 2 at position a Move to the position b in the predetermined area of the button C12.
  • the path 23 during this movement differs every time, and the force sol 22 is directly moved from the button A 10 to the button C 12 for the purpose of selection without passing through the button B 11.
  • the force cursor 22 is moved from position a to position b via path 23 to position b. It is necessary to convert the action that has been performed to the same action as pressing the down key of the remote control twice.
  • FIG. 3 is a diagram showing an example of the content presentation device according to the first embodiment of the present invention, which includes a personal computer main body 30, a monitor 31, a key board 32 and a mouse 33. It is composed of The content is received via a communication interface unit via a transmitting / receiving device installed inside or outside the personal computer main body 30. Although not shown, power is supplied to the personal computer main body 30 via a power cable.
  • a mouse is used as a pointing device as described above.
  • a contact position is detected by a change in resistance value when a finger or the like comes into contact, or a finger position is detected.
  • a touch sensor for optically detecting the like, or another pointing device such as a coordinate detection device may be disposed on or near the screen of the monitor 31 for use.
  • FIGS. Figure 4 shows a screen such as a monitor 30 Button A301, button B302, button C303, and button D304, which are dialog parts, are arranged in a vertical line at 0, and the image corresponding to the button selected by the viewer is displayed on screen 30. Displayed in the area 3 0 5 of 0. Field 306 displays the state updated each time the button is pressed, and is equivalent to the register contents being made visible. In the present embodiment, the information is displayed on the screen, but is not necessarily displayed.
  • FIG. 5 is a correspondence table 400 showing the correspondence between the operation of the remote controller and the operation of the content described above.
  • the focus column of this correspondence table 400 indicates the currently selected button, that is, the focused button, and the operation column includes operation of the up, down, left, and right direction keys of the remote control and operation of the enter key and the like. Key, and the destination of the focus when these keys are operated, that is, the selected interactive component is shown in the column of the focus destination.
  • the operation column shows an explanation of each operation of updating the field value and updating the screen when each key is operated.
  • button A of the remote control is pressed while button A is currently selected (indicated by an arrow ⁇ in the operation column), dialog A in the upward direction of button A301 is displayed as shown in FIG. Since the part is not placed, the focus is moved to the position of the current button A (indicated by the symbol "-" in the field of the focus move destination), and therefore, the screen is not updated (the operation is not performed). , The symbol "one").
  • the configuration is such that the numerical value “1” is added.
  • the focus position does not move, and thus the field value is not updated, because no dialog part is placed at the position.
  • the down direction key is pressed as shown in FIG. 5, and if there is an interactive component in the downward direction, the field value is incremented by "1". Then, press the up arrow key, and if there is a dialogue component in the upward direction, the field value is decremented by "1".
  • This jump-by-field will be described with reference to FIG.
  • This definition is based on the value recorded in the field 306 shown in FIG. 4, that is, the field value as a variable. Specify the image to be displayed in area 3 05.
  • the meaning of "if negative, error, bm 1" means that if the field value is negative, the "errror” described in g by bm 1 ( ⁇ B roadcast Markup Language) It is defined that the content with the name of ⁇ is displayed in the area 305.
  • the field value is "0”
  • the description language used for the definition of the jump-by-field is the content of the content. Allows other description languages to be used.
  • Fig. 7 shows an example of key operation. This key operation example When the field value of the button A is set to "0", when the keys in the direction of the arrow shown in the operation column are sequentially pressed, the selected button and the change of the field value are shown.
  • buttons A are selected as the initial value, and when the down key is pressed, button B is selected and the field value is added to “1" from “0" and updated to "1".
  • the focus moves from button B to button C, and the field value is updated from “1” to “2” by adding "1".
  • the button moves from button C to button D, and the field value is updated from “2" to “3”.
  • the focus moves from the button D to the button C arranged above, and the field value is updated from “3” to “2”.
  • the button C is finally focused, and the field value becomes “2”.
  • the enter key is pressed, the content having the name "jump2" is displayed in the area 305 according to the definition of the jump-by-field shown in FIG.
  • an example is shown in which an image corresponding to the interactive component cannot be correctly selected by simply selecting the interactive component of the interactive content on the premise of the above-described remote control operation using a pointing device.
  • the field value is “0” at the initial position button A of the dialog component.
  • the button C is pressed with the pointing device, if the operation defined for the “decision” operation of the button C is simply performed, the field value remains at the initial value “0”, and the image changes. The content will not behave as the author intended.
  • FIG. 8 shows a main part of the interactive content presentation apparatus 100 used in the present embodiment.
  • This embodiment shows a case where content is input to the interface section of the interactive content presentation device 100 via broadcast radio waves, a communication line, or the like, and a storage medium such as a compact disk.
  • the content may be input via a disc reader (not shown) or the above-mentioned interface unit.
  • the content 110 input to the screen change suppression unit 122 is converted into the corresponding image data by the content reception / processing unit 122, and the presentation device 1 which is a monitor of the interactive content presentation device 100 Displayed in 2 and 3.
  • this storage unit may not be used. Further, this storage unit may be used as a storage unit for data necessary for each process described later.
  • the viewer looks at the content (see Fig. 4) displayed on the screen of the presentation device 123 while watching the pointing device such as the mouse and the touch panel described above.
  • a desired button position is designated from among the buttons A, B, C and D which are the dialog components.
  • the coordinates on the pointing device 124 designated by the user are output to the point detector 125.
  • the coordinates on the pointing device 124 are converted into the coordinates on the screen of the presentation device 123, and the converted coordinates (or position information) and the content reception / processing unit 1 are converted. 22 Compare with the coordinates (or position information) of each dialogue component from 2 to detect which button was selected.
  • button A is selected as the initial value (home position) for this content. Therefore, when a new button is selected using the pointing device 124 on the initial screen, the button A and the newly selected button are known.
  • the route search process starts in step 700, and in step 700, the destination button corresponding to each direction key is searched, and the searched button is the target button, that is, the button selected by the pointing device 124. Determine whether or not. For example, if button B was selected with the pointing device 124, whether or not button A to button B match is compared in step 701, and if they match (step 701) If YES, end the process (step 7 10) o
  • step 70 Check if button A and the newly selected button match in step 70 If the button A has been pressed (NO in step 701), it is checked whether button A has already been checked (step 702). If the search has been completed (YES in step 720), the route search is determined to have failed, and the process is completed (steps 720 and 710). If the inspection has not been performed (NO in step 702), the button A is determined to have been inspected (step 703), and the process proceeds to the next processing.
  • step 704 it is determined whether there is an unsearched key for the up, down, left, and right direction keys. If there is an unsearched key (YES in step 704), it is determined in step 705 whether there is a destination part in the unsearched direction with button A as the base point. (In the case of N0 in Step 705) This processing is ended after the NG processing in Step 720 (Step 710). On the other hand, if there is, the button information of the destination part is acquired (YES in step 705), and in step 706, this processing is recursively called with the destination part as a base point. Then, perform a route search from the part to the button specified by the pointing device '124.
  • step 707 it is determined whether the route search in step 706 is successful. If the route search is successful in step 707 (YES in step 707), the search process is terminated (step 710). If it is not successful in step 707 (if N0 in step 707), return to step ⁇ 704 to confirm the presence or absence of an unsearched key, and if so, return to step 705 Proceed to.
  • step 704 if there is no unsearched key in step 704 (NO in step 704), it means that the button specified by the pointing device 124 could not be searched, and NG processing (step 720), such as displaying a message or prompting to retry, terminates the search processing. You.
  • the point inspection unit 125 and the route search unit 126 are converted into a direction sequence (key sequence) indicating the direction by the point inspection unit 125 and the route search unit 126, the point inspection unit 125 and the route search
  • the coordinate conversion unit 1331 is composed of the unit 1 26.
  • the direction column (key column) information corresponding to the generated direction column (key column) is output to the remote controller emulator unit 128 (see FIG. 8) for emulating the key operation processing of the remote controller. Then, the remote controller emulator section 128 generates the emulated signal 128 converted to the direction row (key row) information from the remote controller corresponding to the above-mentioned direction row (key row) information. Is output to the content reception / processing unit 122.
  • a search example by the above-described route search process will be described with reference to FIG.
  • the button A is currently selected, and the button C is designated by the pointing device 124.
  • the search in the left and right direction is not performed.
  • an arrow “ ⁇ ” in a square indicates an operation by the up key
  • an arrow “1” indicates an operation by the down key.
  • the destination part can search for button A (state 771). Since this destination part, button A, has been inspected, it returns to state 761. Move downward in unsearched state (state 762). This destination part is button C (state 766), and is compared with button C, which is the dialog part specified by the pointing device 124. Since these two dialogue parts match, the search is completed (state 764). Therefore, it can be seen that the route of the key operation from button A to button C is “ ⁇ ”, “I.”
  • the route 780, 790 shown in FIG. Indicates the route.
  • the process goes through another dialog component before searching for the target dialog component.
  • the image corresponding to the base dialog component is held until the target dialog component can be searched without displaying the image corresponding to the passing dialog component. . This eliminates the need for the viewer to view unnecessary images.
  • the configuration is such that the interactive component included in the content can be selected using the pointing device, so that it is possible to interact with the content even on a device without a direction indicating function. Become.
  • the content from the data broadcast is described as an example.
  • the content is received through a communication line, and the interaction with the content is performed by the content presentation device described above. Is also good.
  • a recording medium such as a floppy disk or an optical disk provided in the content presentation device 100 via the interface unit 120 of the content presentation device 100 in the first embodiment.
  • Read read The interactive content may be read via the device and interacted using a mouse or other pointing device, as described above.
  • a key operation sequence is generated by the processing shown in FIG. 9 from the dialog component serving as a base point to the dialog component selected by the pointing device.
  • the route search unit includes a correspondence table of the direction sequence (key sequence) of up, down, left, and right keys when moving between interactive components. According to this correspondence table, the direction column (key column) is searched for the base point and the dialog component at the destination.
  • Fig. 11 An example of the content presentation device of the present embodiment is shown in Fig. 11, and a correspondence table in the case where the dialogue components are buttons A, B, C, and 'D' arranged in one vertical column is shown in Fig. 1. See Figure 2.
  • components of the content presentation device 800 having the same functions as those of the content presentation device 100 (see FIG. 8) described in the first embodiment are denoted by the same reference numerals.
  • the difference from the content presentation device 100 of the first embodiment is a route search unit 8100.
  • a dialog component is included in the route search unit 8100.
  • Correspondence information 820 (see Fig. 12) indicating the route when moving between the buttons by a key operation sequence is stored and stored.
  • the correspondence information 820 shown in Fig. 12 consists of buttons A, B, C, and D, which are the dialogue parts that are the base points, arranged in columns, and buttons A, B, and B that are the destination parts. (: The buttons D are arranged in a row.
  • the operation key row is "II". That is, operate the down key twice.
  • Operation keys when Button D is the starting point and Button A is the destination The column indicates "individual ⁇ ⁇ ", that is, operating the up key three times.
  • the button currently selected from the content reception / processing unit 122, ie, the button serving as the base point, and the target button from the point inspection unit 125, ie, the destination Each of the button information is input to the route search unit 8110. Therefore, by using this correspondence information 820, the direction row (key row) from the base button to the destination button is searched using the up and down keys of the remote control, and this search is performed.
  • the direction row (key row) information is output to the remote control emulator section 128, and the direction row (key row) information is converted to a signal similar to the signal from the remote control by the remote control emulator section 128.
  • the content is output to the content reception / processing unit 122, the content screen information is changed, and the image on the screen of the presentation device 123 is updated.
  • the coordinate conversion unit is performed by the point detection unit 125 and the route search unit 8110.
  • 1 3 1 is configured.
  • the content may be received via a communication line or from a recording medium, and may interact with the content as described above.
  • the route search unit is configured to store direction sequence (key sequence) information corresponding to the movement between the dialog components. Therefore, the route between the dialog components can be searched at high speed.
  • the content presentation device .900 includes a remote control device 222 (remote control) and a detection unit 222 that detects a signal from the remote control device 222, and a screen change suppression unit.
  • the configuration provided in 220 was adopted.
  • the disk device 9110 is connected to the content receiving / processing unit 122 so that the disk device 910 can be loaded with a recording medium in which the interactive content described in the first embodiment is recorded and stored. did.
  • the content presenting device 900 can interact with the content displayed on the presenting device 123 using either the pointing device 124 or the remote control. Furthermore, in addition to interactive content received via data broadcasting and communication lines, it is possible to interact with interactive content recorded and stored on a recording medium.
  • ADVANTAGE OF THE INVENTION According to the interactive content presentation apparatus of the present invention and the method thereof, by using a pointing device that designates or designates coordinates on a display device such as a monitor for displaying content, the designated or designated coordinates are used. Since it was configured to convert between a predetermined position on the display device and one or more combinations of directions, it was created on the assumption that dialogue was performed using a direction indicating function such as a remote control. Content can be interacted using a pointing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

明 細 書 対話型コンテンッ提示装置とその方法 技術分野
この発明は、 画像、 音声やテキストなどを含むコンテンツの提示に関 し、 さらに詳しくは、 コンテンツへの視聴者の操作によってコンテンツ の表示内容が変る対話型コンテンッを表示する対話型コンテンッ提示装 置とそのコンテンツの提示方法に関する。 背景技術
ディ ジタル · テレビジョン放送の本格的な放送が開始され、 画像と音 声だけでなく、 データをも同時に放送する放送形態が普及しつつある。 このデータ放送では、 種々の形態の放送が可能になり、 放送内容と視聴 者との対話を重視した対話型コンテンツを放送することが可能である。 この対話型コンテンツとは、 テレビジョ ンなどの画面に表示されるコン テンッに視聴者が操作を行い、 この操作に対応して、 表示内容が変化す る様に構成されたコンテンツを指す。 具体的には、 たとえば、 映像にボ 夕ン形状の画像を表示し、 このボタンをリモコンなどの入力装置を使用 して選択すると、 対応した画像に切り替わる様に構成したコンテンツを 指している。 上記のボタンの様に視聴者が操作を行う対象である画像を 対話部品 (または対話部品画像) と称する。
このコンテンッを表示するテレビジョ ンモニタなどの表示装置と視 聴者との間の距離は、 表示画面サイズに応じて最適とされる明視距離に よって定まる。 たとえば現行のハイビジョン放送では、 画面の縦方向の 長さの 3倍程度の距離だけ、 画面から離れて視聴するのが良いとされて いる。 それで、 テレビジョン放送を視聴する際に、 視聴者は表示装置か ら離れた位置から画像を視聴するので、 チヤンネルの選択や音量調整な どをリモー トコントロール装置(以下、 リモコンと称する)で操作するこ とが多い。
したがって、 データ放送でも対話型のコンテンツをテレビジョンモニ 夕に表示するので、 画面から離れて視聴し、 そして表示されたコンテン ッを操作することになる。 そのため、 視聴者との対話を前提とする上記 コンテンッは、 このリモコンを使用して操作することを想定して制作さ れている。 すなわち、 コンテンツ制作者は、 視聴者がリモコンに設けら れた上下左右の方向を指示するカーソルキーを使用して、 対話部品を指 定するためにフォーカスを移動し、 決定キ一で選択するようにコンテン ッを記述している。 ここで、 " フォーカスを移動する" とは、 " 指定さ れている対話部品を別の対話部品に指定変更する" こと、 または" 選択 されている対話部品から、 別の対話部品を指定する" ことを示す。
このデータ放送は従来のテレビジョン放送に比べて、 情報量や放送番 組数も多く、 鮮明な画像を特徴としている。 そこで、 急速な勢いで普及 しつつあるパーソナルコンピュータ(以下、 ノ、。ソコン)でも、 このデ一夕 放送を視聴する機会が増えることが予想される。 このパソコンでは、 通 常、 モニタ上の位置をマウスや夕ッチパネルのような表示装置の画面上 の位置を指示するポィンティ ングデバイスで指示する。
しかしながら、 上記したように、 データ放送で提供される対話型コン テンッは、 リモコン操作を前提として制作されおり、 コンテンツをボイ ンティ ングデバイスで操作することは考慮されていない。
したがって、 パソコンのモニタに表示されたこの対話型コンテンッを マウスや夕ツチパネルなどのポインティ ングデバイスで操作すると、 対 話型コンテンツは制作者の意図しない動作をしたり、 障害が発生する恐 れがある。 発明の開示
本発明の目的は、リモコンなどの様に方向を指示する機器を使用して、 操作する (対話する) ことを前提としたコンテンツを座標を指定するポ ィンティ ングデバイスで操作できる様にした装置と方法である。 この目 的のために本発明の対話型コンテンッ提示装置では、 映像を表示するた めのモニタなどの表示部に、 リモコンなどによって上下左右方向に指示 されることを前提に作成された対話部品を表示し、 表示部の画面上の座 標を指示する座標入力部、たとえば夕ッチパネルやマウスなどによつて、 上記対話部品を指示した場合に、 この座標入力部によって指示した座標 を、 上記の上下左右の方向の組合せに座標変換部によって変換して、 ポ インティ ングデバイスによって目的とする対話部品を指定する。
上記した様に、 コンテンッをボインティ ングデバイスで指示した座標 を上下左右方向の組合せに変換するので、 リモコンなどによって指示 · 選択することを前提に制作されたコンテンッをポインティ ングデバイス によっても指示 ·選択することが可能になる。
本発明は上記目的を達成するために、 画像を表示する表示部と、 この 表示部の画面上の座標を指定する座標入力部と、 この座標入力部によつ て指定された座標と表示部の画面上の所定の位置との間の位置関係を 1 つまたは複数の方向の組合せに変換する座標変換部と、 この組合せを所 定の信号、 たとえばリモコンからの信号を受信する検出器から出力され る方向指示信号に相当する信号に変換する信号変換部とを有することを 特徴とする対話型コンテンッ提示装置を提供することを目的とする。
また、 本発明は、 上記目的を達成するために、 インターフヱース部に 入力された信号を処理して表示部に画像として表示するためのコンテン ッ処理部を設け、 表示部の画面上の座標を指定する座標入力部によって 指定された座標と前記表示部に表示された所定の位置との位置関係を座 標変換部によって、 1つの方向または複数の方向の組合せに変換し、 こ の変換された 1つの方向または組合せをェミュレ一タ部で所定の信号に 変換し、 変換されたこの所定の信号を前記コンテンツ処理部に入力する 対話型コンテンツ提示装置を提供することを目的とする。
また、 本発明は、 インタ一フ 一ス部を介して入力される信号を画像 データに信号処理するコンテンッ処理部と、 この画像データを表示する 表示部と、 表示部の画面上の座標を指定する座標入力部と、 この座標入 力部によって指定された座標と表示部に表示されている第 1の特定の位 置からの他の特定の位置を経由して指定された座標へ到達する 1つの方 向または複数の方向の組合せに変換する座標変換部と、 1つの方向また はこの組合せを所定の信号に変換するエミユレ一夕部と、 このエミユレ —タ部で変換された所定.の信号をコンテンツ処理部に入力することを特 徵とする対話型コンテンッ提示装置を提供することを目的とする。
ここで、 特定の位置とは表示部に表示された対話用部品画像を示す。 そして、 "他の特定の位置を経由して"とは、 表示部に表示された対話用 部品画像であって、 第 1の特定の位置に表示される以外の対話用部品画 像を指す。
また、 本発明は、 上記の対話型コンテンツ提示装置に、 さらに電波ま たは回線を介して送信されてくるコンテンッゃ記憶媒体に記録されたコ ンテンッを表示するために、 これらのコンテンッを受信するためのイン 夕一フュース部を設けた対話型コンテンツ提示装置を提供することを目 的とする。
また、 本発明はコンテンツの 2つの対話部品間の関係を 1つまたは複 数の方向を組合せた対応関係を記憶する記憶部を備え対話型コンテンッ 提示装置を提供することを目的とする。
また、 本発明は、 上記目的を達成するために、 画面上の座標を指定 する第 1のステップと、 この画面上の所定の位置と第 1のステツプで指 定された座標との間の位置関係を 1つまたは複数の方向の組合せに変換 する第 2のステップと、 変換された 1つまたは複数の方向の組合せを所 定の信号に変換する第 3のステップとを有するコンテンッ提示方法を提 供する。
さらに、 本発明は、 上記目的を達成するために、 画像中の第 1の位置 を指定する第 1のステップと、 画像中の第 2の位置と第 1の位置との位 置関係を第 2の位置から画像中特定の位置を経由して第 1の位置へ到達 する 1つまたは複数の方向の組合せを生成する第 2のステップと、 この 組合せを所定の信号に変換する第 3のステップとを有することを特徴と する対話型コンテンツ提示方法を提供する。
さらに、 上記方法を記録した記録媒体、 プログラム、 およびこれらを 搭載した対話型コンテンッ提示装置を提供する。
さらに、 本発明は、 上記目的を達成するために、 画面上にコンテンツ とこのコンテンッに対応する対話部品画像とを表示する表示部と、 対話 部品画像の選択によりデータを入力するための前記表示部に対応する座 標を入力する座標入力部とを有する対話型コンテンッ提示装置において、 画面上に表示される複数の対話部品画像と該対話部品画像を選択するた めの力一ソルキーとの対応関係を受信するステップと、 この複数の対話 部品画像を表示した位置を座標指定可能な座標入力部から入力するステ ップと、 この入力された座標から指定された対話部品画像へ移動するた めのカーソルキーの方向の組み合せを先の対応関係から生成するステツ プと、 この生成されたカーソルキーの方向の組合せに基づいて対話部品 画像を指定するステップとからなることを特徴とする対話型コンテンッ 提示プログラムおよびこのプログラムに基づいて画面に表示した対話部 口口画像を選択する対話型コンテンツ提示装置を提供する 図面の簡単な説明
第 1図は、 本発明の概要を示すための表示画面の 1例を示す図である ( 第 2図の (A ) は、 第 1図に示した画面上の対話部品をリモコンで選 択する場合を説明する図であり、 (B ) は対話部品をポインティ ングデ バイスで選択する場合を説明する図である。
第 3図は、 本発明のコンテンッ提示装置の 1例を示す概略図である。 第 4図は、 本発明のコンテンツ提示装置を説明するために、 1例とし て示した対話型コンテンッの画像の概略図である。
第 5図は、 第 4図に示した対話型コンテンッの動作を示す図である。 第 6図は、 第 4図に示した対話型コンテンッの動作であるジャンプ · バイ · ステップの動作の定義を示す図である。
第 7図は、 第 4図に示した対話型コンテンツをリモコンで操作する際 のリモコンの方向操作とフォ一カスの移動とフィールド値の変化の対応 関係を示す図である。
第 8図は、 第 1の実施形態に示すコンテンッ提示装置の概要を示すブ 口ック図である。
第 9図は、 第 1の実施形態で使用している経路探索の処理フローチヤ 一卜の 1例を示す図である。
第 1 0図は、 第 1の実施形態での経路探索例を示す図である。
第 1 1図は、 第 2の実施形態に示すコンテン'ッ提示装置の概要を示す プロック図である。
第 1 2図は、 2つの対話部品の位置関係を方向の組合せで示した図で ある。 第 1 3図は、 第 3の実施形態の概要を示すブロック図である。 発明を実施するための最良の形態
本発明の概要を図 1、 2を参照して説明する。 図 1は、 テレビジョン 装置やパソコンのモニタの画面 2 0に提示された画像を模式的に示した ものである。 この画面 2 0中のボタン A 1 0、 B l l、 C 1 2が対話部 品である。 すなわち、 ボタン A 1 0をホームポジションとした場合に、 視聴者がリモコンの下方向キーを押下すると、 ボタン Bが例えば点滅し たり、 形状が変化したり、 表示色が変わったりして、 このボタン Bが選 択されたことが明示される。そして、 リモコンの決定キ一を押下すると、 このボタン Bが選択 ·決定されたことになり、 この選択に対応した画像 などが領域 2 1に表示される。 このように、 リモコンなどを使用して対 話する (上記の例では、 視聴者が画面上の対話部品を選択すること) 様 に、 対話部品は制作されている。
つぎに、このボタン B、 Cをリ乇コンで選択する場合を図 2の(A ) に、 ポインティ ングデバイスであるマウスで選択する場合を図 2の(B ) に示し、 ポインティ ングデバイスによる選択方法の問題点を説明する。 ここで、 図 1、 図 2で対話部品であるボタン A、 B、 Cの配置は任意で あるが、 上下方向の一列に配置した場合を 1例として示した。 リモコン でこれらのボタン A、 B、 Cを選択 ·決定する場合には、上記した様に、 本例の場合にはリモコンの上、下方向キ一を使用してボタンを選択する。 即ち、 ボタン A 1 0からボタン Cに選択を変更する場合には、 リモコン の下方向キーを 2回押下する。
—方、 ポインティ ングデバイスとしてマウスを使用する場合には、 ボ タン A 1 0がホームポジショ ンであるとして、 ボタン C 1 2を選択する には、 図 2の (B ) に示す様に、 任意の位置 aにあるカーソル 2 2をボ タン C 1 2の所定領域内の位置 bまで移動する。 この移動する際の経路 2 3は、 毎回異なり、 また、 ボタン A 1 0からボタン B 1 1を経ること なく、 直接選択目的のボタン C 1 2へ力一ソル 2 2を移動させる。 この 様なマウスによる選択によって、 図 2の (A ) と同様に、 ボタン Cを選 択した結果を得るためには、 力一ソル 2 2を位置 aから経路 2 3を経て 位置 bに移動させた動作を、 リモコンの下方向キ一を 2度押下したと同 等の動作に変換する必要がある。
以下、 コンテンツの記述内容を変更することなく、 上記に説明したポ ィンティ ングデバイスによっても、 正しく対話部品を選択するコンテン ッ提示装置とその方法について詳述する。
[第 1の実施形態]
本発明の本第 1の実勢形態では、 データ放送から対話型コンテンッを 受信する場合を主に説明する。 図 3は、 本発明の第 1の実施形態のコン テンッ提示装置の 1例を示した図であり、 パーソナルコンピュ一タ本体 3 0、 モニタ 3 1、 キ一ボード 3 2およびマウス 3 3を含んで構成され る。 このパーソナルコンピュータ本体 3 0内または、 外部に設置した放 送受信装置を介して通信ィンターフェース部を経由して、 コンテンツを 受信する。 また、 図示していないが、 パーソナルコンピュータ本体 3 0 は、 電源ケーブルを介して電源が供給されている。
この第 1の実施形態では、 上記した様にボインティ ングデバイスとし て、 マウスを使用しているが、 指などが接触した際の抵抗値の変化によ つて接触位置を検出したり、 指の位置などを光学的に検出するタツチセ ンサ、 または、 座標検出装置などの他のポインティ ングデバイスをモニ 夕 3 1の画面上または近傍に配置して使用しても良い。
つぎに、 方向キーを備えたリモコンで操作する対話型のコンテンッの 1例を図 4力、ら図 7を参照して説明する。 図 4はモニタなどの画面 3 0 0に対話部品であるボタン A 3 0 1、ボタン B 3 0 2、ボタン C 3 0 3、 ボタン D 3 0 4が縦一列に配置され、 視聴者が選んだボタンに対応した 画像が画面 3 0 0中の領域 3 0 5に表示される。 フィールド 3 0 6は、 ボタンを押下毎に更新される状態を表示するものであり、 レジスタ内容 を目視可能にしたものに相当している。 本実施形態では、 画面上に表示 したが必ずしも表示する必要はない。
図 5は、 リモコンの操作と上記したコンテンツの動作の対応を示す対 応表 4 0 0である。 この対応表 4 0 0のフォーカス欄には、 現在選択さ れているボタン、 つまりフォーカスされているボタンを示し、 操作の欄 には、 リモコンの上下左右の方向キ一や、 決定キー等の操作するキーを 示し、 これらのキ一を操作したときのフォーカスの移動先、 つまり選択 される対話部品をフォーカス移動先の欄に示す。 そして、 動作欄には、 この各キ一を操作した際のフィ一ルド値の更新および画面の更新の各々 の動作説明を示してある。
以下に、 詳細に説明する。 ボタン Aが現在選択されている場合に、 リ モコンの上方向キーを押下すると (操作の欄に、 矢印†で示す) 、 図 4 に示す様にボタン A 3 0 1の上方向には、 対話部品が配置されていない ので、 フォーカスの移動は現ボタン Aの位置のままであり (フォーカス 移動先の欄に、 記号 " - " で示す) 、 したがって、画面の更新はない (動 作の欄に、 記号 "一 " で示す) 。
このボタン Aが現在、 選択されている場合に、 リモコンの下方向キー を押下すると、 図 4に示す様に、 ボタン A 3 0 1の下方向には、 対話部 品であるボタン B 3 0 2が配置されており、 このボタン Bがフォーカス 移動先となる (フォーカス移動先の欄に、 " B u t t o n B " と示す) < この様に、 移動方向先に対話部品であるボタン A、 B、 Cまたは Dがあ れば、 そのボタンがフオーカス移動先になる。 そして、 フィ一ルドには、 本実施形態では数値 " 1 " を加算する構成としている。 つぎに、 左方向 キー (矢印 " ―" で示す) 、 または右方向キ一 (矢印 " →" で示す) を押下した場合には、 図 4に示す様に、 ボタン A 3 0 1の左右の位置に は対話部品は配置されていないので、 いずれの場合にも、 フォーカス位 置は移動せず、 したがってフィールド値は更新されない。 また、 このキ —操作例では、 図 5に示した様に下方向キーを押下し、 この下方向に対 話部品がある場合には、 フィールド値は " 1 " 加算される。 そして、 上 方向キーを押下し、 この上方向に対話部品がある場合には、 フィールド 値は " 1 " 減算される。
つぎに、 ボタン Aがフォーカスされていて、 決定キ一を押下した場合、 その時のフィ一ルド値に対応したジャンプを行う (動作欄に、 "ジヤン プ バイ フィールドの定義に従って動作" と示す) 。
このジャンプ バイ フィールドを図 6を参照して説明する。 この定 義は、 図 4に示したフィ一ルド 3 0 6に記録されている値、 すなわちフ ィ 一ルド値を変数とし、 決定キーを押下した際にこのフィールド値に従 つて、 図 4の領域 3 0 5に表示する画像を指定する。 定義 5 0 0中で、 "負ならば e r r o r, b m 1 " の意味は、 フィ一ルド値が負であれば、 b m 1 (^B r o a d c a s t Ma r k u p L a n g u a g e) で g己 述された " e r r r o r" と言う名称のコンテンッを領域 3 0 5に表示 することを定義している。 同様に、 フィールド値が "0 " の場合には、 名称が " j u mp 0 " のコンテンツを領域 3 0 5に表示することを定義 している。 ここで、 本第 1の実施形態では、 上記した様にデータ放送か らコンテンツを受信した場合を 1例として説明しており、 このジャンプ バイ フィ ールドの定義に使用した記述言語は、 コンテンツの内容によ つて他の記述言語を使用することが可能である。
つぎに、 図 7にキー操作例を示す。 このキー操作例は、 初期値として ボタン Aのフィールド値を " 0 " とした場合に、 操作欄に示す矢印方向 のキ一を順次押下した際に、 選択されるボタンおよびフィールド値の変 化を示したものである。
ボタン Aが初期値として選択されており、 下方向キ一を押下すると、 ボタン Bが選択され、 フィールド値は " 0 " から " 1 " 加算され " 1 " に更新される。 さらに、 下方向キーを押下すると、 フォーカスは、 ボタ ン Bからボタン Cに移動するとともに、 フィールド値は " 1 " から " 1 " 加算され " 2 " に更新される。 さらに、 下方向キ一を押下すると、 フ才 —カスは、 ボタン Cからボタン Dに移動し、 フィールド値は "2 " から " 3 " に更新される。 つぎに、上方向キ一を押下すると、 フォーカスは、 ボタン Dから上方に配置されているボタン Cに移動し、 フィールド値は " 3 " から " 2 " に更新される。 この様に図 7の最終行に示したキー操 作まで行うと、ボタン Cが最終的にフォーカスされ、フィ一ルド値は" 2 " となる。 ここで、決定キ一を押下すれば、図 5に示したジャンプ ·.バイ · フィ一ルドの定義に従って、 名称 " j u m p 2 " のコンテンツが領域 3 0 5に表示される。
ここで、 上記したリモコン操作を前提とした対話型コンテンッの対話 部品を単にポインティ ングデバイスで選択しただけでは、 正しく対話用 部品に対応した画像が選択できない例を示す。
たとえば、 図 4に示したコンテンツが、 図 5の対応表 4 0 0に応じた 動作をする場合、対話部品の初期位置ボタン Aで、 フィ一ルド値は" 0 " であるとする。 ボインティ ングデバイスで例えばボタン Cを押下した時 に、 単純にボタン Cの 「決定」 操作に定義された動作を行うと、 フィー ルド値は初期値の" 0 " のままであり、 画像の変化は無く、 コンテンツ は制作者の意図通りの動作は行わないことになる。
そこで、 上記したコンテンッを例にして、 ポインティ ングデバイスを 使用して、 リモコン操作と同様に、 このコンテンツを動作させる対話型 コンテンッ提示装置とその方法を図 8力、ら図 1 0を参照して説明する。 図 8に本実施形態に使用する対話型コンテンツ提示装置 1 0 0の要 部を示す。 本実施形態では、 コンテンツが放送電波、 通信回線などを介 して、 対話型コンテンッ提示装置 1 0 0のィンタ一フヱ一ス部に入力さ れる場合 示しており、 コンパク トディスクなどの記憶媒体からの対話 型コンテンッを受信する場合は、 図示していないディスク読取り装置ま たは、 上記のインタ一フヱ一ス部を介して、 入力する様に構成しても良 い。
以下では、 放送電波や通信回線などを介して入力されるコンテンツの 場合を説明する。このコンテンツはィンターフヱース部 1 2 0を介して、 コンテンッ提示装置 1 0 0に入力される。 ここで、 通常のデータ放送受 信装置のチューナ、 符号訂正、 圧縮情報の伸長などの処理は、 本対話型 コンテンツ提示装置 1 0 0内部または外部に備えても良く、 本実施形態 では、 外部の放送受信部からの出力をこのィン夕一フヱ一ス部 1 2 0で 受信する場合を 1例としている。
画面変更抑制部 1 2 1に入力されたコンテンツ 1 1 0は、 コンテンツ 受信 ·処理部 1 2 2で対応する画像データに変換され、 対話型コンテン ッ提示装置 1 0 0のモニタである提示装置 1 2 3に表示される。
ここで、 入力されたコンテンツの一部または全体を、 一旦磁気ディス クまたは半導体メモリなどで構成され記憶部に記憶する構成としてもよ い。 ただし、 コンテンツのデータ量や構成によっては、 この記憶部は使 用しなくても良い。 また、 この記憶部を後述する各処理に必要なデータ の記憶部として使用しても良い。
視聴者は、提示装置 1 2 3の画面に表示されたコンテンツ(図 4参照) を見ながら、 上記したマウスや夕ツチパネルなどのボインティ ングデバ イス 1 2 4を使用して、 対話部品であるボタン A、 B、 C、 Dの中から 所望のボタン位置を指示する。 この位置を指示することによって指定さ れたポインティ ングデバイス 1 2 4上の座標がボイント検查部 1 2 5に 出力される。 このポイント検査部 1 2 5では、 ポインティ ングデバイス 1 2 4上の座標が提示装置 1 2 3の画面上の座標に変換され、 この変換 された座標 (または位置情報) とコンテンツ受信 ·処理部 1 2 2からの 各対話部品の座標 (または位置情報) との比較を行い、 どのボタンが選 択されたかを検出する。
ここで、 このコンテンツは、 ボタン Aが初期値 (ホームポジショ ン) として選択されているものとする。 したがって、 初期画面上でボインテ ィ ングデバイス 1 2 4を使用して、 新たにボタンを選択した場合、 この ボタン Aと新たに選択されたボタンとが既知となる。
つぎに、 この 2つのボタン間をリモコンの上下左右キーで選択する場 合の経路、 すなわちボタン Aから新たに選択されたボタンを" 上下左右 キ一のどのキーをどの順序で押下すれば到達するか" を、 経路探索部 1 2 6で探索し、 方向を示すキーの列 (方向列) を生成する。 この方向列 を生成する処理フローチヤ一トを示した図 9を参照して、 方向列の生成 を説明する。
経路探索の処理をステップ 7 0 0で開始し、 ステップ 7 0 1で各方向 キーに対応した移動先ボタンを探索し、探索したボタンが目的のボタン、 つまりポインティ ングデバイス 1 2 4で選択したボタンか否かを判定す る。 もし、 例えばポインティ ングデバイス 1 2 4でボタン Bを選択して いたのならば、 ボタン Aからボタン Bがー致するか否かをステツプ 7 0 1で比較し、 一致した場合 (ステップ 7 0 1で Y E Sの場合) 、 処理を 終了する (ステップ 7 1 0 ) o
ステップ 7 0 1でボタン Aと新たに選択されたボタンが一致しなか つた場合 (ステップ 7 0 1で N Oの場合) 、 ボタン Aが既に検査済みで あるか否かを検査する (ステップ 7 0 2 ) 。 検查済みであれば (ステツ プ 7 0 2で Y E Sの場合) 、 経路探索が失敗したとして、 処理を完了す る (ステップ 7 2 0および 7 1 0 ) 。 未検査の場合 (ステップ 7 0 2で N Oの場合) 、 ボタン Aを検査済みとした上で (ステップ 7 0 3 ) 、 次 の処理に進む。
ステップ 7 0 4で、 上下左右方向キーについて、 未検索のキーがある か否かを判定する。 もし、 未検索のキーがある場合 (ステップ 7 0 4で Y E Sの場合) 、 ステップ 7 0 5でボタン Aを基点として未検索方向の 移動先部品があるか否かを判定し、 ない場合には (ステップ 7 0 5で N 0の場合) ステップ 7 2 0の N G処理を経てこの処理を終了する (ステ ップ 7 1 0 ) 。 一方、 有る場合には移動先部品であるボタン情報を取得 し (ステップ 7 0 5で Y E Sの場合) 、 ステップ 7 0 6で、 その移動先 部品を基点として、 本処理を再帰的に呼び出すことによって、 その部品 からポインティ ングデバイス' 1 2 4で指定したボタンへの経路探索を行 う o
つぎに、 ステップ 7 0 7で、 ステップ 7 0 6の経路探索の成功の可否 を判定する。 ステップ 7 0 7で、 この経路探索が成功となった場合 (ス テツプ 7 0 7で Y E Sの場合) 、 この検索処理を終了する (ステップ 7 1 0 ) 。 もし、 ステップ 7 0 7で成功でなかつた場合 (ステップ 7 0 7 で N 0の場合) 、 ステッ ^ 7 0 4に戻り、未検索のキーの有無を確認し、 有る場合にはステップ 7 0 5に進む。
一方、 ステップ 7 0 4で未検索のキーが無い場合 (ステップ 7 0 4で N Oの場合) 、 ポインティ ングデバイス 1 2 4で指定したボタンが検索 できなかったことになり、 ステップ 7 2 0でエラ一を表示や、 再試行を 促す表示などの N G処理 (ステップ 7 2 0 ) を行い、 検索処理を終了す る。
この検索処理フローチヤ一卜で示した処理によって、 ボタン Aからポ インティ ングデバイス 1 2 4で選択されたボタンまでをリモコンの上下 左右キー操作によつ.て移動する場合のキー列、 すなわち方向列が生成ざ れる。
ここで、 ポイント検査部 1 2 5 と経路探索部 1 2 6 とによってマウス による画面上の座標が方向を示す方向列 (キー列) に変換されたので、 ボイント検查部 1 2 5と経路探索部 1 2 6 とで座標変換部 1 3 1が構成 されている。
この生成された方向列 (キー列) に対応する方向列 (キ—列) 情報を、 リモコンのキ一操作処理をェミユレ一卜するリモコンエミユレ一夕部 1 2 8 (図 8参照) に出力し、 このリモコンエミ ュレータ部 1 2 8で、 上 記の方向列 (キ一列) 情報に対応するリモコンからの方向列 (キ一列) 情報に変換されたェミ ュレー ト信号 1 2 9が生成され、 コンテンッ受 信 ·処理部 1 2 2に出力される。
上記した経路探索処理による探索例を図 1 0を参照して説明する。 こ の探索例は、 ボタン Aが現在選択されており、 ポインティ ングデバイス 1 2 4によってボタン Cが指定された場合で、説明を簡明にするために、 左右方向については検索しないものとした。
図 1 0で四角内の矢印 "† "は上方向キ一による操作を示し、矢印" 1 " は下方向キーによる操作を示す。まず、ボタン Aが選択されており(状態 7 5 1 )、移動方向は上、下方向のみであるので、上方向の移動をすると (状態 7 5 2 ) 、 ボタン Aの上方向には対話部品は無いのでエラ一状態 (状態 7 5 3 ) となる。 そして、 再度、 状態 7 5 1から未検索の下方向 の移動に移ると (状態 7 6 0 ) 、 移動先部品はボタン Bであり (状態 7 6 1 ) 、 この移動先部品ボタン Bと、 ポインティ ングデバイス 1 2 4で 指示した対話部品ボタン Cとを比較する。この両対話部品は異なるので、 つぎに、 ボタン Bを基点に各キーについて移動先部品を検索する。 上方 向の移動をすると (状態 7 7 0 )、移動先部品はボタン Aを検索でき (状 態 7 7 1 ) 、 この移動先部品であるボタン Aは検査済みなので、 状態 7 6 1に戻り、 未検索の下方向の移動をする (状態 7 6 2 ) 。 この移動先 部品はボタン Cであり (状態 7 6 3 ) 、 ボインティ ングデバイス 1 2 4 で指定した対話部品であるボタン Cと比較する。 この両対話部品は一致 するので、 検索が完了となる (状態 7 6 4 ) 。 したがって、 ボタン Aか らボタン Cまでのキー操作の経路は " Γ'、 " I " であることが分かる。 なお、 図 1 0に示したルート 7 8 0、 7 9 0は、 上記状態が遷移する ルートを示したものである。
なお、 上記説明では、 目的の対話部品を探索する迄に、 他の対話部品 を経由する。 ここで、 好ましくは、 これらの経由する対話部品に対応し た画像を表示せずに、 目的の対話部品を探索できるまでは、 基点となる 対話部品に対応した画像を保持しておく ことが望ましい。 この様にする ことによって、 視聴者が不要な画像を見る煩わしさが無くて済む。
上記した様に、 第 1の実施形態によって、 コンテンツに含まれる対話 部品をボインティ ングデバイスを使用して選択できる構成としたので、 方向指示機能を備えない機器においてもこのコンテンツとの対話が可能 となる。
また、 上記の実施形態では、 データ放送からのコンテンツを 1例とし て説明したが、 通信回線を介してコンテンツを受信して、 このコンテン ッとの対話を上記に説明したコンテンツ提示装置で行っても良い。
また、 上記の第 1の実施形態に於けるコンテンツ提示装置 1 0 0のィ ンタ一フェース部 1 2 0を介して、 または、 本コンテンツ提示装置 1 0 0内に備えるフロッピィ、 光ディスクなどの記録媒体を読み取る読取り 装置を介して、 対話型コンテンツを読み込み、 上記に説明した様に、 マ ウスなどのボインティ ングデバイスを使用して対話しても良い。
[第 2の実施形態]
第 1の実施形態では、 基点となる対話部品からポインティ ングデバイ スで選択した対話部品までを図 9に示す処理によってキー操作列を生成 した。
この方向列 (キー列) の生成方法に代えて、 第 2の実施形態では、 対 話部品間を移動する場合の上下左右キーの方向列 (キ一列) の対応表を 経路探索部に備え、 この対応表に従って、 基点と移動先の対話部品に対 して、 方向列 (キー列) を検索する様に構成した。
本第 2の実施形態においても、 第 1の実施形態で説明したコンテンツ を例に説明する。 本実施形態のコンテンツ提示装置の 1例を図 1 1に示 し、 対話部品が縦 1列に配列されたボタン A、 ボタン B、 ボタン C、'ボ タン Dである場合の対応表を図 1 2に示す。
図 1 1で、 第 1の実施形態で説明したコンテンツ提示装置 1 0 0 (図 8参照)と同様に機能を持つコンテンツ提示装置 8 0 0の構成要素には、 同じ符号を付した。 第 1の実施形態のコンテンッ提示装置 1 0 0と異な るのは、 経路探索部 8 1 0であり、 本第 2の実施形態では、 この経路探 索部 8 1 0内に、 対話部品である各ボタン間を移動する場合の経路をキ 一操作列で示した対応情報 8 2 0 (図 1 2参照) が格納され記憶されて いる。 この図 1 2に示した対応情報 8 2 0は、 基点となる対話部品であ るボタン A、 ボタン B、 ボタン C、 ボタン Dを縦列に、 移動先部品とな るボタン A、 ボタン B、 ボタン(:、 ボタン Dを横列に配列したものであ り、 例えばボタン Aを基点とし、 ボタン Cを移動先とした場合の操作キ 一列は " I I " つまり、 下方向キ一を 2回操作することを示している。 また、 ボタン Dを基点とし、 ボタン Aを移動先とした場合の操作キー 列は "个 † †" 、 つまり上方向キ一を 3回操作することを示している。 このコンテンッ提示装置 8 0 0では、 コンテンッ受信 ·処理部 1 2 2 から現時点で選択されているボタン、つまり基点となるボタンの情報と、 ボイント検査部 1 2 5から目的とするボタン、 つまり移動先ボタンの情 報とが各々が経路探索部 8 1 0に入力される。 したがって、 この対応情 報 8 2 0を使用することにより、 リモコンの上下キーを使用して、 基点 となるボタンから移動先となるボタンまでの方向列 (キ一列) が検索さ れ、 この検索された方向列 (キ一列) 情報をリモコンエミ ュレータ部 1 2 8へ出力し、 リモコンエミ ュレー夕部 1 2 8で、 この方向列(キー列) 情報をリモコンからの信号と同様な信号に変換し、 コンテンツ受信 ·処 理部 1 2 2に出力し、 コンテンツの画面情報を変更し、 提示装置 1 2 3 の画面上の画像を更新する。
なお、 第 2の実施形態においても、 ボイント検査部 1 2 5と経路探索 部 8 1 0によって座標変換が行われるので、 このポイント検查部 1 2 5 と経路探索部 8 1 0によって座標変換部 1 3 1が構成されている。
また、 第 1の実施形態と同様に、 通信回線を経由したり、 記録媒体か らコンテンツを受信して、 このコンテンツと上記した様に対話しても良 い。
この第 2の実施形態では、 第 1の実施形態と同様の効果に加え、 さら に、 経路探索部に各対話部品間の移動に対応する方向列 (キー列) 情報 を記憶させる様に構成したので、高速に対話部品間の経路を探索できる。
[第 3の実施形態]
図 1 3を参照して、 第 3の実施形態を説明する。 図 1 3に示したコン テンッ提示装置 9 0 0中で図 8に示したコンテンッ提示装置 1 0 0の構 成要素と同等または同じ様な機能を有する構成要素には、 同じ符号を付 した。 このコンテンッ提示装置 .9 0 0に'は、 リモートコント口一ル装置 2 2 2 (リモコン) とこのリモー トコントロール装置 2 2 2からの信号を検 出する検出部 2 2 1を画面変更抑制部 2 2 0に設けた構成とした。 さら に、 ディスク装置 9 1 0をコンテンッ受信 ·処理部 1 2 2に接続し、 こ のディスク装置 9 1 0に第 1の実施形態で説明した対話型コンテンッを 記録格納した記録媒体を搭載可能にした。 この様に構成したので、 コン テンッ提示装置 9 0 0は、 ポインティ ングデバイス 1 2 4またはリモコ ンのいずれでも提示装置 1 2 3に表示されたコンテンツとの対話が可能 となる。 さらに、 データ放送や通信回線を利用して受信した対話型コン テンッ以外にも、 記録媒体に記録格納された対話型コンテンツとの対話 が可能となる。 産業上の利用可能性
本発明の対話型コンテンッ提示装置およびその方法によれば、 コンテ ンッを表示するモニタなどの表示装置上の座標を指定または指示するポ ィンティ ングデバイスを使用して、 この指定または指示された座標と表 示装置上の所定の位置との間を一つまたは複数の方向の組合せに変換す る様に構成したので、 リモコンなどの方向指示機能を使用して対話する ことを前提にして制作されたコンテンッをボインティ ングデバイスを利 用して対話することができる。

Claims

請 求 の 範 囲
1 . 画像を表示する表示部と、
前記表示部の画面上の座標を指定する座標入力部と、
前記座標入力部によつて指定された座標と前記表示部の画面上 の所定の位置との間の位置関係を 1つまたは複数の方向の組合せに変換 する座標変換部と、
前記座標変換部で変換された前記組合せを所定の信号に変換す る信号変換部とを有することを特徴とする対話型コンテンッ提示装置。
2 . インタ一フェース部と、
画像を表示する表示部と、
前記ィンターフュース部に入力された信号を前記表示部に表示す る画像データに信号処理するコンテンツ ^理部と、
前記表示部の画面上の座標を指定する座標入力部と、
前記座標入力部によって指定された座標と前記表示部に表示さ れた所定の位置との位置関係を 1つの方向または複数の方向の組合せに 変換する座標変換部と、
前記座標変換部で変換された前記 1 つの方向または前記組合せ を所定の信号に変換するエミユレ一夕部と、
前記ェミ ュレータ部で変換された所定の信号を前記コンテンッ 処理部に入力することを特徴とする対話型コンテンッ提示装置。
3 . イン夕一フェース部と、
画像を表示する表示部と、
前記表示部の画面上の座標を指定する座標入力部と、
前記ィンタ一フェース部に入力された信号を前記表示部で表示す る画像データに信号処理するコンテンッ処理部と、
前記座標入力部によって指定された座標と前記表示部に表示さ れている第 1の特定の位置から他の特定の位置を経由して前記指定され た座標へ到達する 1つの方向または複数の方向の組合せに変換する座標 変換部と、
前記座標変換部で変換された前記 1 つの方向または前記組合せ を所定の信号に変換するエミ ュレー夕部と、
前記エミ ュレータ部で変換された所定の信号を前記コンテンッ 処理部に入力することを特徴とする対話型コンテンッ提示装置。
4 . 前記インターフユ一ス部は、 電波または回線を介して送信されて くる信号を受信し、 所定の信号に変換することを特徴とする請求項 3に 記載の対話型コンテンッ提示装置。
5 . 前記ィンタ一フ 一ス部は、 記録媒体を有したディスク装置から の信号を所定の信号に変換することを特徴とする請求項 3に記載の対話 型コンテンッ提示装置。
6 . 前記画面上の特定の位置は、 前記コンテンツ処理部によって定め られることを特徴とする請求項 3に記載のコンテンッ提示装置。
7 . イ ンタ一フヱ一ス部と、
画像を表示する表示部と、
前記表示部の画面上の座標を指定する座標入力部と、
前記インターフユース部に入力された信号を前記表示部で表示す る画像データに信号処理するコンテンッ処理部と、
前記表示部に表示されている第 1の対話部品画像と前記座標入 力部によって指定された第 2の対話部品画像との位置関係を前記第 1の 対話部品画像から他の対話部品画像を経由して、 前記第 2の対話部品画 像に到達する複数の方向の組合せ、 または前記第 1の対話部品画像から 前記第 2の対話部品画像に到達する方向を探索する経路探索部と、
前記経路探索部で探索された前記組合せを所定の信号に変換す るエミ ュレータ部と、
前記エミ ュレ一タ部で変換された所定の信号を前記コンテンッ 処理部に入力することを特徴とする対話型コンテンッ提示装置。
8 . 前記第 1と第 2の対話部品画像と前記経路探索部によつて生成さ れた前記組合せとの対応関係を記憶する記憶部を備えたことを特徴する 請求項 7に記載の対話型コンテンッ提示装置。
9 . 前記第 2の対話部品画像を指定し、前記表示部に表示された画像 が前記第 2の対話部品画像の指定に対応した画像に変更されるまで、 前 記第 1の対話部品画像に対応する画像が前記表示部に表示されているこ とを特徴とする請求項 7または 8に記載の対話型コンテンツ表示装置。
1 0 . 画面上の座標を指定する第 1のステップと、
前記画面上の所定の位置と前記第 1のステツプで指定された座 標との間の位置関係を 1つまたは複数の方向の組合せに変換する第 2の ステツプと、
前記変換された 1つまたは複数の方向の組合せを所定の信号に 変換する第 3のステツプと、
を有するコンテンツ提示方法。
1 1 . 画像中の第 1の位置を指定する第 1のステップと、
前記画像中の第 2の位置と前記第 1の位置との位置関係を前記第 2の位置から前記画像中特定の位置を経由して前記第 1の位置へ到達す る 1つまたは複数の方向の組合せを生成する第 2のステップと、
前記組合せを所定の信号に変換する第 3のステップとを有する ことを特徴とする対話型コンテンツ提示方法。
1 2 . 前記第 2のステップで、
前記第 2の位置から前記複数の方向に前記特定の位置が有るか 否かを判定し、 前記特定の位置が有る場合に前記特定の位置が前記第 1の位置 か否かを判定するステツプを有することを特徴とする請求項 1 0に記載 の対話型コンテンツ提示方法。
1 3 . 請求項 1 0乃至請求項 1 2に記載の対話型コンテンツ提示方法 のいずれかを記録した記録媒体。
1 4 . 請求項 1 0乃至請求項 1 2に記載の対話型コンテンツ提示方法 のいずれかを記載したプログラム。
1 5 . 画面上にコンテンツと該コンテンツに対応する対話部品画像とを 表示する表示部と、 該対話部品画像の選択によりデータを入力するため の前記表示部に対応する座標を人力する座標入力部とを有する対話型コ ンテンッ提示装置において、
前記画面上に表示される複数の対話部品画像と該対話部品画像 を選択するための力一ソルキーとの対応関係を受信するステップと、 前記複数の対話部品画像を表示した位置を座標指定可能な座標 入力部から入力するステップと、
前記入力された座標から指定された対話部品画像へ移動するた めのカーソルキーの方向の組み合せを前記受信した対応関係から生成す ステップと、
前記生成されたカーソルキーの方向の組合せに基づいて対話部 品画像を指定するステツプとからなることを特徴とする対話型コンテン ッ提示プログラム。
1 6 . 請求項 1 4または請求項 1 5に記載したプログラムに基づいて、 画面に表示した対話部品画像を選択する対話型コンテンツ提示装置。
PCT/JP2001/002581 2001-03-28 2001-03-28 Dispositif et procédé de présentation de contenus interactifs WO2002079966A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2001/002581 WO2002079966A1 (fr) 2001-03-28 2001-03-28 Dispositif et procédé de présentation de contenus interactifs
EP01917555A EP1376321A1 (en) 2001-03-28 2001-03-28 Interactive content presenting device and method
JP2002578126A JPWO2002079966A1 (ja) 2001-03-28 2001-03-28 対話型コンテンツ提示装置とその方法
US10/669,702 US20040056892A1 (en) 2001-03-28 2003-09-25 Interactive content presenting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2001/002581 WO2002079966A1 (fr) 2001-03-28 2001-03-28 Dispositif et procédé de présentation de contenus interactifs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/669,702 Continuation US20040056892A1 (en) 2001-03-28 2003-09-25 Interactive content presenting device and method

Publications (1)

Publication Number Publication Date
WO2002079966A1 true WO2002079966A1 (fr) 2002-10-10

Family

ID=11737176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/002581 WO2002079966A1 (fr) 2001-03-28 2001-03-28 Dispositif et procédé de présentation de contenus interactifs

Country Status (4)

Country Link
US (1) US20040056892A1 (ja)
EP (1) EP1376321A1 (ja)
JP (1) JPWO2002079966A1 (ja)
WO (1) WO2002079966A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140366A (ja) * 2006-07-21 2008-06-19 Cyberlink Corp ビデオ再生システムにおいて遠隔制御装置の機能をマウスで実現するためのシステムおよび方法
JP2008252754A (ja) * 2007-03-30 2008-10-16 Nippon Hoso Kyokai <Nhk> データ放送コンテンツダイレクト操作制御装置及びダイレクトリモコン、並びに、データ放送コンテンツダイレクト操作制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169289A1 (en) * 2002-03-08 2003-09-11 Holt Duane Anthony Dynamic software control interface and method
JP4640046B2 (ja) 2005-08-30 2011-03-02 株式会社日立製作所 デジタルコンテンツ再生装置
JP5757080B2 (ja) * 2010-10-22 2015-07-29 ソニー株式会社 操作端末装置、表示装置、および表示装置の操作方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293819A (ja) * 1988-09-30 1990-04-04 Toshiba Corp タッチパネル式入力装置
JPH02181815A (ja) * 1989-01-06 1990-07-16 Nec Corp キーコードを生成するマウス入力装置
JPH04112315A (ja) * 1990-09-03 1992-04-14 Casio Comput Co Ltd 入力制御装置
JPH0728579A (ja) * 1993-07-08 1995-01-31 Seiko Epson Corp 情報処理装置
JPH07322164A (ja) * 1994-05-27 1995-12-08 Mitsubishi Electric Corp テレビジョン受信装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037939A (en) * 1995-09-27 2000-03-14 Sharp Kabushiki Kaisha Method for enabling interactive manipulation of data retained in computer system, and a computer system for implementing the method
US6496981B1 (en) * 1997-09-19 2002-12-17 Douglass A. Wistendahl System for converting media content for interactive TV use

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293819A (ja) * 1988-09-30 1990-04-04 Toshiba Corp タッチパネル式入力装置
JPH02181815A (ja) * 1989-01-06 1990-07-16 Nec Corp キーコードを生成するマウス入力装置
JPH04112315A (ja) * 1990-09-03 1992-04-14 Casio Comput Co Ltd 入力制御装置
JPH0728579A (ja) * 1993-07-08 1995-01-31 Seiko Epson Corp 情報処理装置
JPH07322164A (ja) * 1994-05-27 1995-12-08 Mitsubishi Electric Corp テレビジョン受信装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140366A (ja) * 2006-07-21 2008-06-19 Cyberlink Corp ビデオ再生システムにおいて遠隔制御装置の機能をマウスで実現するためのシステムおよび方法
JP2008252754A (ja) * 2007-03-30 2008-10-16 Nippon Hoso Kyokai <Nhk> データ放送コンテンツダイレクト操作制御装置及びダイレクトリモコン、並びに、データ放送コンテンツダイレクト操作制御プログラム

Also Published As

Publication number Publication date
US20040056892A1 (en) 2004-03-25
EP1376321A1 (en) 2004-01-02
JPWO2002079966A1 (ja) 2004-07-22

Similar Documents

Publication Publication Date Title
US9485449B2 (en) Method for providing GUI for selecting broadcast channel with keypad operated by pointer and broadcast receiving apparatus thereof
JP3897774B2 (ja) マルチメディア再生装置およびメニュー画面表示方法
US20040123320A1 (en) Method and system for providing an interactive guide for multimedia selection
US20100229125A1 (en) Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto
US20140168130A1 (en) User interface device and information processing method
US7880813B2 (en) Control device and control method with corresponding arrangement of image regions
US20120089946A1 (en) Control apparatus and script conversion method
US8850356B2 (en) Information processing system and information processing apparatus
JP2004265450A (ja) 座標入力装置
WO2018120768A1 (zh) 一种遥控方法和终端
EP1768128A2 (en) Method and apparatus for highlighting buttons on screen on which a plurality of applications are displayed, and information recording medium thereof
US8209725B2 (en) Method for providing graphical user interface for selecting broadcast program and AV apparatus therefor
JP5135413B2 (ja) 映像信号処理装置及びその制御方法
WO2002079966A1 (fr) Dispositif et procédé de présentation de contenus interactifs
JP5548915B2 (ja) リモコンシステム
JP4802026B2 (ja) データ放送のオブジェクト選択装置
JP5242274B2 (ja) 情報処理装置及び方法、並びにコンピュータプログラム
KR102303286B1 (ko) 단말기 및 그의 동작 방법
JP2008258853A (ja) 機器操作支援装置及び機器操作支援方法
JP2003308146A (ja) 受信処理装置、表示処理方法及びプログラム
KR20100129398A (ko) 웹 페이지 네비게이션 방법 및 웹 페이지 네비게이션을 위한 리모트 컨트롤러
CN116382453A (zh) 显示设备、触摸点定位方法以及装置
KR100964426B1 (ko) 디스플레이 장치
KR20000050398A (ko) 영상표시기기의 사용자 인터페이스
JP2013214926A (ja) 情報処理装置及び方法、並びにコンピュータプログラム及び情報記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002578126

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2001917555

Country of ref document: EP

Ref document number: 10669702

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001917555

Country of ref document: EP