WO2004048887A1 - Real world object recognition method and device, and attached device - Google Patents

Real world object recognition method and device, and attached device Download PDF

Info

Publication number
WO2004048887A1
WO2004048887A1 PCT/JP2003/015019 JP0315019W WO2004048887A1 WO 2004048887 A1 WO2004048887 A1 WO 2004048887A1 JP 0315019 W JP0315019 W JP 0315019W WO 2004048887 A1 WO2004048887 A1 WO 2004048887A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
light
real world
image
identification information
Prior art date
Application number
PCT/JP2003/015019
Other languages
French (fr)
Japanese (ja)
Inventor
Yuichi Kado
Shinichiro Muto
Fumiharu Morisawa
Yuichi Morikawa
Original Assignee
Nippon Telegraph And Telephone Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph And Telephone Corporation filed Critical Nippon Telegraph And Telephone Corporation
Priority to AU2003302450A priority Critical patent/AU2003302450A1/en
Publication of WO2004048887A1 publication Critical patent/WO2004048887A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Definitions

  • the present invention provides real-world object information, which is information about real-world objects, in a three-computer system that constitutes a fine server world.
  • the network has been connected to communication networks, and has been connected to each other.
  • the network has ranged from household appliances such as TVs to sensors and factories and X-groups.
  • household appliances such as TVs to sensors and factories and X-groups.
  • the pumps interconnected by a network are connected to each other by the pumps in the evening, and cooperate with each other in order to achieve services while communicating with each other.
  • the real world is modeled on a ⁇ mono J-based model, and is used as an object X-cut.
  • the real world's job X is sent to the server world as a job-of-the-world ⁇ virtual world on a computer system (single or multiple systems) ⁇ . How to combine 0 need for books ⁇ Convertible
  • Ubiquitous services utilizing the network which is currently expected worldwide, are said to be informationization of ordinary space.
  • the information of ordinary living space has been left as it is.
  • Such a real world and a virtual world on a computer such as a computer-a representative of the first conventional technology of how to observe the world's objects is the Sentientc OmP of Cambridge University.
  • Sent € nt C 0 m P uting which has examples of uting, is defined as a means that the system can be enhanced by feeling the real world.
  • the sensor group and m-measurement provide the location of the real world object X-cut, Factory Hit J-Mono J, and its specific properties to the App U-Cashin software. So, for example, it is used to maintain the environmental morale between normal life is
  • detecting the position of the real world obn X cut and its identification ID is a starting occupation, so that it becomes a starting occupation.
  • a 100-meter square pill is used to specify the position of the object at a position of about 3 cm in a 100-square-meter pill that employs a wave-based location system.
  • An 8 cm long device attached to the object embedded in the ceiling is a
  • the identification ID can be found on the radio channel from the P
  • the sensors that reset the sunset are the ones that receive the ID of the white waves by radio waves.
  • the apulse that sends the pulse of the supersonic waves sends out the sensor on the ceiling.
  • Shoes 5 receives it and calculates the position by the diagonal method based on the difference in propagation time.
  • the location of the location X and the location of the location H including the location J and the source of the U source in the building are integrated by a distributed X-directional module, and the U source is sensed naturally.
  • the spatial correlation between the objects and the X-cuts is shown to the application V software.
  • the location of each object and the status of each object are represented by the X-box X of CORBA (Comm 0 nobjeat R e Quest Broker A rchitect U re).
  • the Co RBA is a standard for network-based networking that is required to realize a distributed network-based X-box system. Then C
  • the type of X-cut is similar.
  • the object of C0 RBA for real object h such as the h-person's personal computer power, m-pi, mpi, etc.
  • the object of C0 RBA for real object h such as the h-person's personal computer power, m-pi, mpi, etc.
  • 15019 the object of C0 RBA for real object h, such as the h-person's personal computer power, m-pi, mpi, etc.
  • the printer will be connected to the corresponding application via the corresponding application box. • The software activates the actual printer.
  • X X white body is in the shadow of transactions, alternative processing during system downtime, security management, distribution of vanes, or large-scale distributed systems. To take care of the items in the list, we provide a single entrance to the opening case for the application.
  • the sensor group and sensor control entrance are embedded in the ceiling and floor, and the system entrance or entrance 1 is required, so large office buildings, hospitals, etc. Works best for mobile people who generate information, access information, and in situations where they need to interact with disparate devices and with each other.
  • the second conventional technique is the management of mono.
  • RFID Radio Fre Quen C
  • y I dentification is small, and has a built-in line communication IC, and the basic function is only to transmit the ID number etc. stored in the memory.Mainly for logistics management.
  • the managed object When attached to a X-cut, the identification ID can be obtained without contact in a non-contact manner (NIKKEI ⁇ LECTR o N
  • a light-emitting diode (LED), whose blinking is controlled by a so-called bean, is mounted on the (subject), and the ID is assigned. Bin repeats extinction based on its ID
  • the blinking pattern is detected and analyzed by a custom-built-in power meter (ID force mailer) developed uniquely for the new system. If you compare the ID to the infrared remote that displays the image of the subject in the image, the bin is an infrared umon transmitter, and the ID input camera is a remote control receiver.
  • the ID camera which is an array sensor (CM ⁇ S sensor) arranged in an array, can only image the scene as a force camera (sin mode). ⁇ The coordinates on the image of the icon and the ID key sent by the beacon are output as a set (ID mode-ID). Repeat the sampling of kHz at 200 times, and the carrier frequency transmitted by the bin 3 is 4 The ID of 8 bits at 4 kHz is all 19 2 X 1 2 4 pixels In
  • T ags J on the surface of a real-world object.
  • the next vault matrix 3 is attached, and the video is taken with a video camera. From the subject you see on the video 3?
  • the method of identifying multiple real objects photographed with a CD force camera uses the wavelength difference of the embedded infrared accessory, so the emission center wavelength is 800 ⁇ m 8 2
  • the number of real X-cuts that can be distinguished from each other by preparing three C C D force cameras is a maximum of 5.
  • the four at the periphery repeatedly occupy and illuminate at the same timing, functioning as a clock signal, and the central LED is the clock.
  • the signal blinks 1/4 phase behind the signal blinking.
  • the image captured by the power camera that sends the evening signal is first extracted only from bright pixels.
  • the pixels extracted in this process are area-combined and the area of the area is calculated.Area with an area equal to or greater than a certain value is determined to be not a Ba11oonTag light source and removed. This removal is performed to remove bright parts of white walls, fluorescent light sources, etc. from the judgment target.
  • a combination that can be presumed to be a quick signal is searched for in a plurality of areas selected as follows. Since the clock signal of B a 1 ⁇ on Tag appears as a roughly diamond-shaped area in the image, it is limited to the angle e formed by the four vertices in all combinations of the four areas. The selection of the clock signal source by adding When the diamond of the signal source is selected, the area where the diamond was located in the most recent video frame is mapped. How the Ba1 1 oon Tag moves Analyze 15019
  • the frame processing speed of the computer that reads “1” or “0” is 10 Hz, and if the phase difference between clock and data is taken into account, the transmission will be 5 Any speed below HZ is possible. Then, the transmission speed of the evening is set to 4 Hz.
  • Line communication technology is an optical communication technology in which light arriving from a laser light source at a base station is incident on a wireless sensor node in a direction parallel to the optical axis that is incident on the ultra-small reflective mirror. From the laser installed at the base station that uses the method of returning or removing it as an optical signal from the laser installed at the base station, the laser is sent to the area where the wireless sensor nodes are scattered.
  • the above irradiation light will cause the wireless sensor node to
  • the normal sensor node which can be modulated to send the evening, contains the command that is coming from it, the command that is coming from it, and the command that requests the sensing information.
  • the microminiature reflector is moved to change the reflected beam toward or away from the base station in parallel to the base station.
  • the point that can be returned to the station is that the small reflector is a mirror on three mutually perpendicular surfaces formed inside the corner of the body.
  • the light beam incident on the three-sided reflecting mirror is reflected in parallel with the incident optical axis, it is basically possible to use each line sensor even if there is no special argument.
  • the reflected beam reflected from the camera returns to the base station, and the reflected beam from the entire area where the sensor nodes and groups are distributed is imaged on the CCD sensor array. Therefore, if a lens system is designed, the modulated beam from each node can be received at a pixel at a specific position on the sensor array corresponding to the spatial position.
  • the size of the Hd is 25 6 X 25 6 when the XU in a 17 m square is divided into two.
  • the signal speed is CCD. Depends on the sensor frame
  • the first technology mentioned above is embedded in the horoscopes that are applied to the daily life of home shops and narrow offices.2.
  • the specified m of the weakly used position in the 0 MHz band is about ⁇ 2 m, but there is no accuracy in specifying the position of the object with the other part. Regarding s, it is only possible to identify where it is located.RF is too wide to be accurate, but it is difficult to know the location of the ID. RF in
  • the third conventional technique employs a method in which a vein is repeatedly occupied based on its ID and is not synchronized with a receiving system.
  • the beacon does not know when to shoot with the ID power camera, and must constantly flash. Since the power consumption of the LED is not small, the size of the bin can be reduced It is not suitable for use in applications that attach to observables that are not environmentally friendly. If intermittent operation is performed due to electric power, there is a possibility that the ID will not be able to be recognized due to the ID force. In this case, an algorithm such as key synchronization (inserting a stop bit and a stop bit before and after the asynchronous method) is required. It is difficult to recognize the moving object because the processing is greatly increased and it takes too much time
  • the number of clearly identifiable objects is limited to only about several. Since it is a method that only extracts bright occupancy from the output infrared image, if the sphere or its reflected light is behind the infrared light source, the infrared incidental element cannot be detected. It is not practical in practice
  • the occupation of the sixth prior art is occupied without synchronizing with the receiving system that has a low data transfer rate.
  • the present invention has been made in view of the above, and its main purpose is to provide a real world object with a three-chip system that forms a server world against the real world talent.
  • DISCLOSURE OF THE INVENTION To provide a method for connecting the real world and the super-world that makes it possible to properly determine the world's genius and the world's talent.
  • the present invention which relates to the ability to achieve the above-mentioned objectives, is based on the real-world object information related to the real-world object engineering, and is based on the computer system that composes the super-world.
  • Real World Obuji X Kutto for understanding.
  • the identification information and the position of the element attached to the real world object X which are issued from an accessory assigned with one identification information, are assigned.
  • a step is provided to identify the position of the unit by the computer system.
  • the present invention according to the above-mentioned 2 for forming the above-mentioned giant is based on real world object X related information related to real world talents. -A real-world, open-minded way to learn more about the evening system.
  • Step 3 Obtain the attached image of the attached real world X-Cut by the computer system and receive it.
  • Obtain the identification information and position information of the attached element.
  • the present invention which relates to a third aspect for forming the above-mentioned hugeness, includes a real world object for constructing a real world object information about a real world object.
  • the identification information generated by the attached element attached to the real world Xbox and assigned with the identification information, and the identification information generated by the attached element.
  • the position of the real world object X-cut corresponding to the attached element has been specified.
  • the present invention according to a fourth aspect for achieving the above object,
  • a real world object X-Cut device for constructing a server world based on the real world object X information related to the real world object, which is attached to the real world talent X object.
  • Position information indicating the position of the associated s-element For receiving an image of a real-world observatory with an attached element attached, and acquiring the identification information and position information of the received Iff element attached Means associated with the image of the real world object protected by the means 1 and identification information of the attached element associated with the position information and the image of the real world object X Means for identifying and identifying the position of the real world Xbox corresponding to the attachment based on the
  • a server-world corresponding to the real world having sound identification information attached to a real world X-box is provided.
  • the identification information and the positional information indicating the position of the incidental element can be communicated to the computer system by line communication to the computer system.
  • the transmitting means for transmitting and the operation finger from the computer system the state of the Bd real world object and the small number of the state near the real world object X
  • additional information issued from the accessory card and the position of the accessory are determined.
  • the information can be received and understood by the computer system (real world X-axis ⁇ ⁇ recognition device).
  • At least the location of real world objects such as environments can be connected to the server world in the real world, and various services can be created that are closely related to everyday life.
  • the W attached to the object h in the real world receives the light emission instruction command and emits light when the identification information matches. Then, the position of the luminous occupation is specified as the position of the real world object, and the position of the real world object is combined with the object X object of the world specified by the identification information.
  • Real world objects such as physical environment
  • spatial image processing is performed on a frame image signal obtained by subtracting a nearby frame image signal at a predetermined strong ratio from a frame image signal of optical timing.
  • the noise reduction processing that includes the filter processing or the pattern matching processing or both processing is performed, and the image with the highest image density, for example, the maximum signal intensity for each spot.
  • the image is identified as a light emission image, and the position of the light emission image in the frame image is specified as the position of the incidental element, and it is connected to the world's object. Disturbance from the noise of s
  • the adjacent frame image signal or the frame image signal when the incidental element is not emitting light is subtracted from the note frame image signal, or
  • the frame image signal after ⁇ is subtracted from the frame image signal at a predetermined intensity ratio to remove the pixel signal in the frame which is less than a predetermined value. It is possible to accurately remove the shadow of these disturbance noises, and to accurately identify the position of the luminescent image and, consequently, the position of the object.
  • the light emission is repeated by a predetermined period, or a gad having a random length, and the light is repeatedly emitted after a period of time, and the light emission of the incidental element is imaged by the imaging means.
  • the position is specified as the position of the real world object X, and the position of the real world object is specified by another information.
  • the events that cause the world's oppositions X will be sent to the U-room, which will be combined with the corresponding object X-cuts in the world.
  • a light emitting instruction when a light emitting instruction is received by attaching an incidental element which emits light repeatedly in a predetermined time and a predetermined cycle in response to a light emitting instruction command to a real world object, and Light emission is repeated for a predetermined time and at a predetermined cycle.
  • Real world object The position of the real world object X specified as the position of the object is added to the position of the object world in the saba world, so that the object X, the object return, etc.
  • Various events are linked to real-world events, which are linked to the corresponding objects in the world, and various types of events that use the network are connected to everyday life. ⁇ When you create a screw,
  • an accessory W that emits light in response to the light emission instruction ⁇ is attached to an object X in the real world, and the light emission of the accessory when the light emission instruction is received is received by the first imaging means.
  • the second imaging means having the same imaging field of view captures an image of a real world object attached to the accessory, and the position of the light emitting point captured by the first imaging means is determined by the second imaging means.
  • the position identification information of the real world object X X specified as the position of the real world object X X is associated with the image of the real world object X X taken by the second imaging means.
  • the field of view or both of the 145th and the 2nd it image means are also larger than the image content frame and outside the frame;
  • the state of the object is identified, and the identification information of the real world X-box is used.
  • the light-emitting position The moving object newly entered into the field of view of the imaging means in order to sense the flash point. I can make my mind go smoothly
  • the incidental element is a base of a real world object.
  • the singing information is the object in the server world or the object in the server world specified by the identification information together with the location of the real world object.
  • the real world object and the server world object h are connected in association with the information or information processing function related to the X cut, so that the white body and the vicinity of the real world X cut are wet and wet.
  • information such as vibration C C2 concentration, pollen abundance, acceleration, movement, tilt and pressure can be obtained and related to the Sapa world object.
  • the incidental element senses the state of the real world X-cut or the state S 'or both, and the computer system receives the sensing information.
  • Sensing information on real-world objects The location information and identification information are associated with the image of the real-world object X X imaged by the second imaging means. Sensing information Identified by identification information Related information related to information and information processing functions related to the X-World of X-World or X-World of X-World 1 so that the white of the real world object X
  • This information and the images of the real world X-X X, which the human observes, can be associated with the super-world X-X X X.
  • the accessory has an actuator for performing a predetermined operation
  • the computer system transmits an operation instruction for the operation and the operation for the operation.
  • the command reception confirmation signal or the actuator execution notification signal is received from the accessory, and the information on the operation function of the actuator is identified by the identification information together with the position of the real world open box. Since it will be linked to the identified genius of the world, for example, it is possible to use an object such as a bi-directional camera to create a real-world object.
  • the information on the actuation function of the actuator Xu X is linked to the super X-cut of the world.
  • Various services using evening networking that provide services closely related to everyday life You can create it.
  • the accessory has an actuating device for performing a predetermined operation
  • the n-computer system transmits the actuating device to transmit the actuating operation, and whether the W element is attached.
  • the luminous point is selected with priority given to the region estimated from the position of the mental sensation in the past luminescence. From the image captured by the second imaging means, the outline of the X-X cut including the past light-emitting occupation is captured and the light is emitted.
  • a past light-emitting partial image is reflected on a template of a light-emitting pattern or a past light-emitting point position is detected.
  • the use of the template used in step (b) suppresses misidentification ff ⁇ of the light source other than the accessory.
  • FIG. 1 shows an embodiment of the present invention.
  • FIG. 2 is a diagram for illustrating a method of connecting the real world and the server world according to an embodiment of the present invention.
  • Fig. 3 shows the output frame image of the moving image camera (the image table for each frame) that captures the emission image from the optical element of each accessory in the embodiment shown in Fig. 1. ) Is illustrated.
  • FIGS. 1 and 2 The figure is a schematic block diagram showing an example of processing of the computer system and the attachment shown in FIGS. 1 and 2.
  • Figure 5 shows the noise in the frame image of the moving image power camera.
  • FIG. 6 is a schematic flow chart showing an example of processing of the computer system and the neat w * multiplier shown in FIGS. 1 and 5.
  • FIG. 7 is a diagram for explaining the process of removing the light emission image that appeared as noise from the frame image of the moving image camera by a different subtraction process from Fig. 5.
  • FIG. 8 is a schematic diagram showing an example of the processing of the TC device and the attached elements shown in FIGS. 1 and 7.
  • Fig. 9 is a diagram to clarify the fixed space filter processing that removes noise signals from light sources such as sunlight and lighting that still remain in the difference processing.
  • FIG. 10 is a schematic front view showing an example of processing of the amp system and the element shown in FIGS. 1 and 9.
  • FIG. 11 shows an example in which, instead of the spatial filter processing, the data processing is performed by using a parametric V-chitching process, and even in the difference processing, the light emission signals other than those of the light emitting elements of the incidental elements are left.
  • FIG. 7 is a diagram for explaining a cone-shaped matching process for removing noise signals from light sources such as sunlight and lighting.
  • FIG. 12 is a schematic front view showing an example of processing of the computer system and the attached elements shown in FIGS. 1 and 11.
  • Figure 13 shows how the priority is compared between the frame image processed by the inter-filter process and the frame image after the P-V-V-ching process to determine the final priority order and to detect it. Attachment of child
  • FIG. 4 is a diagram for explaining a process of extracting X-ray X-cuts for identifying occupancy of light-emitting elements of an optical element.
  • FIG. 14 is a diagram showing a result obtained by performing the processing of FIGS. 2 to 13 described above in a general manner.
  • FIG. 15 shows the occupied light emission of the first priority determined
  • FIG. 9 is an explanatory diagram showing that positional information of an attached element attached to a cut is paired with Ji and coordinates in the frame thereof are set as positional information of an attached purple element.
  • the time when the light emission instruction command was transmitted T m T m + 1 of the object Frame image coordinates (XmYm) 1: X: m ⁇ +-1 Ym + 1)
  • Fig. 17 shows the information file on the Saiha, where the position data extraction file 35 in the frame image of each X-X image shown in Fig. 16 is pre-loaded. It is a figure that pi indicates that it is to be configured and treated as an obverse
  • Figure 18 shows the position of each object in the frame image that was converted in Figure 17-the extracted file and the name of the object X ID ⁇ ⁇ ⁇ X ⁇ ⁇ ⁇ ⁇ ⁇ ID ID ID ⁇ ID ID ⁇ ID ID ID ⁇ ID ID ID ⁇ ⁇ ⁇ ⁇ ⁇ It is a diagram showing that an information file is linked to form an information database.
  • Figure 19 shows the location of the object X in the frame image in the frame image.
  • the extracted file was placed on the server space (from the information related to the units connected to the network). Space in the space) It shows that the X-box management is based on the ob-
  • FIG. 20 is a diagram for explaining the overall operation of another embodiment of the real world object X-Cut Hya system shown in FIG. 1 according to the present invention.
  • Fig. 21 shows the output frame image of the moving image camera (the frame-by-frame image) that captures the emission image from the light-emitting element of each auxiliary element in the embodiment shown in Fig. 20.
  • FIG. 22 is a diagram for illustrating the overall operation of another embodiment of the real world object X-recognition system shown in FIG. 1 according to the present invention according to another embodiment of the present invention. Show up
  • FIG. 23 shows the overall work of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
  • FIG. 24 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system shown in FIG. 1 according to the present invention.
  • FIG. 25 is a block diagram showing the overall construction of another embodiment of the real-world object mental system shown in FIG. 1 according to the present invention.
  • FIG. 26 is a diagram for explaining the overall operation of another embodiment of the real-world X-ray recognition system shown in FIG. 1 according to the present invention.
  • Figure 27 shows the position of the luminous occupancy of the incidental image taken with the 1 «1 power camera and the real world object captured using the 2 nd video camera.
  • FIG. 28 is a schematic flowchart showing an example of the processing of the computer system and the attachments shown in FIGS. 1 and 26.
  • Figure 29 shows the position of the light-emission occupancy of the incidental element imaged with the first moving image camera and the real-world object imaged with the second moving image camera.
  • the real world object imaged by the second moving image power camera corresponding to the position fr of the luminous occupancy of the appendix imaged by the first moving image camera This is a view in which the visual power is superimposed on the image of the project
  • FIG. 30 is a schematic diagram showing an example of the processing of the computer system and the attached elements shown in FIGS. 1 and 29.
  • FIG. 31 is a diagram for ⁇ -converting the overall operation of another embodiment of the real world object W knowledge system shown in FIG. 1 according to the present invention.
  • FIG. 32 is a diagram in which the visual field range of the first video power camera and the visual field range of the second video power camera are the same in the embodiment table of FIG. 31.
  • FIG. 33 is a diagram illustrating the real world X-X shown in FIG. 1 according to the present invention.
  • FIG. 11 is a diagram for explaining the overall operation of another embodiment of the ⁇ ' ⁇ knowledge system. , ⁇
  • FIG. 34 is a diagram for explaining the process of generating the X-Voice tube.
  • FIG. 35 is a diagram for clarifying the processing for configuring the job management base.
  • Fig. 36 is a diagram for converting the process for constructing the object management section-evening
  • FIG. 37 illustrates another embodiment of the real world gift object recognition system shown in FIG. 1 according to the present invention.
  • Figure 38 shows the information of the accessory in the connection between the position of the light-emitting point of the accessory shown in Figure 27 and the image of the real-world object captured by the second moving image power camera. And further sensing
  • Fig. 39 shows the relationship between the position of the light emitting point of the accessory shown in Fig. 29 and the image of the real world object captured by the second moving image camera, and the image of the real world object X-cut. This is a diagram in which visual power is superimposed on the top and additional sensing information is added as information for W Chako.
  • FIG. 40 is a diagram illustrating the overall construction of another contested form of the real-world smart X-knowledge system shown in FIG. 1 according to the present invention.
  • FIG. 41 is a diagram for explaining the overall operation of another embodiment of the real-world object contact system shown in FIG. 1 according to the present invention.
  • FIG. 42 is a diagram illustrating the real world talented X-X shown in FIG. 1 according to the present invention.
  • FIG. 10 is a diagram for explaining the overall operation of another embodiment of the system
  • FIG. 43 shows the actuating one-time operation command sent to the attached device, and if necessary, the actuating one-time operation command reception confirmation signal or the actuating event notification from the attached device.
  • FIG. 2 is a diagram configured to receive a signal.
  • Figure 44 shows the information of the additional element in the combination of the position of the luminous occupancy of the additional element and the image of the real world X-X imaged by the second moving image camera. It is a diagram to which information on the X X operation function has been added.
  • Fig. 45 shows the image of the real world open X-cut with the visible power superimposed on it and the information on the actuation function added as additional element information.
  • FIG. 46 is a diagram of a case where a visible light emitting element is used as an actuator in the embodiment shown in FIG. 41.
  • FIG. 47 is a diagram of FIG. Fig. 2 In the case of visible light emitters in the evening ⁇
  • Figure 48 shows an example of the processing of the computer system and accessories shown in Figures 1 and 29. It is a schematic chart showing the outline
  • FIG. 49 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
  • Figure 50 is the real world object shown in Figure 1 according to the present invention. It is a diagram for explaining the overall operation of another embodiment of the system.
  • FIG. 51 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
  • FIG. 52 is a diagram for explaining the overall operation of another embodiment of the real-world object oral knowledge system shown in FIG. 1 according to the present invention.
  • FIG. 53 is a schematic flow chart showing an example of the processing of the computer system and the armature shown in FIGS. 1 and 52.
  • FIG. 54 is a schematic flowchart showing an example of the processing of the computer system and the attachments shown in FIGS. 1 and 52.
  • FIG. 55 shows, in particular, the attachment of the object and the attachment of the child; the emission of light from the child. Reflecting the past light-emitting partial image of the incidental element on the template of the light-emitting panel for the sake of understanding, and using a template similar to the past light-emitting partial image It is a diagram showing the processing used
  • FIG. 56 is a diagram for explaining the overall operation of another embodiment of the real-world object X-cut portal system shown in FIG. 1 according to the present invention.
  • FIG. 57 is a diagram showing the process of using the template used for the position of the light emitting device and the position of the accessory in the past in the embodiment.
  • FIG. 58 is a diagram showing the process of changing the imaging conditions of the imaging means for imaging the light emission of the accessory in another embodiment of the present invention.
  • FIG. 59 is a diagram for ⁇ converting the entire operation of another embodiment of the real world X-X knowledge system shown in FIG. 1 according to the present invention.
  • FIG. 60 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system shown in FIG. 1 according to the present invention.
  • FIG. 61 shows the use of a template in which the light intensity at the center of the accessory is near the maximum exposure value and the light intensity decreases conically from the center.
  • FIG. 62 is a view for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
  • FIG. 63 is a diagram for explaining the overall operation of another embodiment of the real world object X-cut recognition system shown in FIG. 1 according to the present invention.
  • FIG. 64 is a diagram for explaining the overall operation of another embodiment of the real world X-ray recognition system shown in FIG. 1 according to the present invention.
  • FIG. 65 is a diagram for explaining the overall operation of another embodiment of the real-world X-cut recognition system shown in FIG. 1 according to the present invention. Best mode for implementing
  • FIG. 1 shows a schematic configuration of a real-world object recognition system 1 including a real-world object recognition device and a real-world object recognition accessory according to an embodiment of the present invention.
  • 1 is a predetermined recognition target area in the real world (for example, inside a room, outside, or the like), and existing real world objects
  • the information (real world object X cut information) (hereinafter simply referred to as “office object h”) is sent to a server—a computer system (real world object recognition device) that constitutes the world. 2)
  • the above-mentioned real-world object X-cut information is linked to ⁇ -symbols and tems (cyber-worlds) 2 by ⁇ .
  • the real world object O is a tree planted in a flowerpot and is an object that constitutes the environment.
  • the object 0c which is the object of the object b, is an example.
  • an identification information storage means 14 such as a U is provided for storing identification information having identification information such as D.
  • the walking element 11 has its function as a self-attached fff brown as the above-mentioned real world object information in response to a light emission instruction command transmitted from the three-pixel system 2.
  • the position information output unit 15 which outputs the position information of the child (the position information of the attached source object X) as, for example, light emission information and the operation command transmitted from the computer system 2. (Attachment of the working element pre-installed in accordance with the operation) 16)
  • the actuating part 16 that operates the 16a and the sensor sent from the pump system 2
  • a sensing unit 17, which detects sensing information by a pre-installed sensing means sensor 17 a and transmits it to the computer system 2, is provided.
  • Note that it is only necessary for the attachment 11 to have a small number of ⁇ 15
  • the computer system 2 uses the identification information for distinguishing the above element 11, that is, the object 0 to which the ffT element 11 is attached.
  • Knowledge to generate Transmits a light emission instruction (e.g., an instruction with a content of ⁇ Emit the auxiliary element corresponding to the generation identification '' information to emit light J) to the separate information generation means 20 and the generated identification information.
  • a light emission instruction e.g., an instruction with a content of ⁇ Emit the auxiliary element corresponding to the generation identification '' information to emit light J
  • the computer system 2 is configured by a first imaging means 22 and a first imaging means 22 such as a moving image camera, for example, for taking an image of the above-mentioned recognition target area as an imaging visual field.
  • a process for reducing noise included in the imaged video information is performed, and the image information (noise-processed) is captured by the noise processing unit 23 and the first imaging unit 22.
  • the computer system 2 is a means for associating 2
  • An image pickup means 30 is provided, and image information picked up by the second image pickup means 30 is sent to the image display means 26 and displayed by the image display means 26. If the separate power is generated, the power information is displayed by folding it onto the video information.
  • 3 Computer system 2 has a user interface section 31 for an interface (IF) for the user who can use the computer system. ⁇ The IF section
  • 3 1 is used together with the image display means 26 and the input means 32 to display the graphing function.
  • the IF section 31 of sru is integrated with the computer system 2
  • Communication terminals that can be communicated with the computer system 2 via a communication line such as a power line dedicated line, etc. (for example, a personal computer that can be used by a user). (Evening at the end of the evening or at the end of the belt)
  • the user operates the input means 32 and clicks and designates a predetermined position of the video information displayed on the video display means 27.
  • a predetermined request is sent to the user IF section 31. Via the computer to the computer system 2
  • the above-described identification power is displayed on the video information displayed on the video display means 27.
  • the user operates the input means 32. Clicking and specifying the above identification power
  • the input system 2 transmits the input data to the element having identification information such as the factory 1 J.
  • Factory 2 J Equipped with another information determination means 35 to determine what information is required / ' For example, if the user 1- user clicks on the position of the input operation 3 2 (specifies) the position, changes the number of clicks, or clicks hierarchically, multiple requests can be made. Can be input to the identification information determination / request determination means 35.
  • the 3rd-evening system 2 determines whether the sensing instruction for the child is determined by the additional information specified by the separate information determination Z request determination means 35. n, a sensing instruction transmitting means 40 for transmitting a sensing instruction including the identification information of the designated incidental element, and the designated element according to the transmitted sensing instruction information. And a sensing information receiving means 41 for receiving the sensing information transmitted from the sensing section 17 of 11.
  • the operating system for the actuator 16a mounted on the specified incidental element specified by the identification information determination / request determination means 35 is determined by the n ump-evening system 2.
  • the operation command including the identification information of the designated incidental element is transmitted, and the operation instruction transmitting means 45 and the operation section 16 of the designated incidental element 11 are transmitted according to the transmitted operation instruction.
  • the 3rd party system 2 is a
  • the identification information and the light-emission occupation obtained by 5, the position information, the sensing information received by the sensing information receiving means 41, and the corresponding H Additional information and reception means 46 Based on the signal of the action line notification / action received, the operation history information and the corresponding identification information
  • the computer system 2 includes an interface X-section that has a line communication function for the auxiliary element 11, an interface X that can be communicated with the interface X section, and a CD.
  • the external memory of the DVD (Digital Versati 1 e Disk) 'can be set to r / computer so that the external memory can be set in a redundant manner.
  • Video information and attached element information (position information, sensor information, etc.)
  • a large storage device such as an eight-cage disk, and a quake of the computer.
  • the position information output section 15 of the light emitting element 11 includes a light emission instruction purging instruction receiving means 15 a for receiving a light emission instruction instruction, and a light emission instruction instruction receiving means 15.
  • the identification information comparing the identification information included in the received light emission instruction with the identification information stored in the identification information recording means 14.
  • the light emission control means 15d and the identification information mark that cause the light emitting element 15c to emit light according to the comparison result between the information ratio means 15 and the light emitting element 15c and the separate information ratio means 15b.
  • An identification information transmitting means 15 e for extracting one piece of the identification information # stored in the column 14 and transmitting the extracted identification information # to the computer system 2 is provided.
  • the actuating section 16 of the auxiliary element 11 has an actuation command received by an actuation command receiving means 16b with an actuation command receiving means 16b which receives an actuation command.
  • the identification information included in the identification information is compared with the identification information stored in the identification information storage unit 14, and the identification information comparison means 16c for operating the operator 16a in accordance with the comparison result.
  • the operation command was confirmed to be received according to the comparison result of the ID information comparison means 16c.
  • a transmission means 16d for transmitting a heart signal and / or an action execution notification indicating an execution result of the action element 16a to the reception means 46 of the ⁇ -amplitude system 2;
  • the sensing section 17 of the auxiliary element 11 includes a sensing instruction receiving means 17b for receiving a sensing instruction.
  • the identification information included in the sensing instruction received by the sensing instruction receiving means 17 b is compared with the identification information identified by the identification information B self '
  • sensing result of the identification information comparing means 17c and the sensing means 17a for executing (sensing operation) is set as sensing information (sensing information).
  • Appendix A3 * element 11 1 is a light emitting element 15 c, working element 1
  • Each child is equipped with a computer circuit having a line-communication function, for example, one chip.
  • a computer circuit having a line-communication function, for example, one chip.
  • Each of the functions described above is implemented by a computer circuit.
  • a computer system 2 constituting a hyper-world for a plurality of real world objects ⁇ a ⁇ c is provided with a moving image function as a first imaging means 22.
  • the camera is attached to the camera 103 and the video camera 103 of the camera.
  • a light emission instruction command device that transmits a light emission instruction command to O c, for example, as an IR light 105 (light emission instruction command transmission means 2
  • the light emitting instruction command device 105 which is the light emitting instruction command sender 21, is attached to the video power camera 103, but is not limited thereto. It is okay to be separated from the video power camera 103
  • Each of the X-cuts ⁇ a ⁇ c has an additional element 1 1 (1 1a1 1b1 1c) to which an identification ID (m 1 mm + 1), which is different information, is assigned.
  • Each of the attached W-systems 1 1a 1 1b 1 1c is associated with a light-emitting instruction "P-pachi-height from the P-device 5 as described below. It is attached so that the moving image camera 103 can capture the light emitted in response to the light emission instruction command.
  • An accessory 11 attached to each of the light X 1 is a communication means (light emission instruction reception means 15a) for receiving the light emission instruction command from the light emission instruction device 5 and a light emission instruction.
  • the communication means having the light emitting element 15c that emits light in response to the command is, for example, an RF receiver, infrared light receiving, RF transmitting / receiving, infrared transmitting / receiving, and the like.
  • the light emitting element 15C is an example.
  • this device uses infrared light reception as communication means.
  • Infrared LED is used as the light emitting element.
  • Identity ID (m-1 mm + 1) assigned to each attached element 1 1 a 1 1 b 1 1 c Is used as a number to identify each tag 11, but is actually used to identify each object h in the real world to which the tag 11 is attached.
  • Image force film 103 is a moving image force sensor that is sensitive to the emission wavelength output from the photon of incidental member 11.
  • the moving image power 103 is a power source for a predetermined time.
  • the image sensor in the camera senses light and outputs it as a 1-frame still image.
  • the output operation as a 1-frame still image is repeatedly repeated at a high rate.
  • the still image of one frame is sequentially generated in time series to capture and output a video.
  • the frame image for each frame period is shown in the figure.
  • the upper part of Fig. 2 shows the 3-computer system 2 of this embodiment, in which n-1 nn + 1 is divided.
  • the light-emitting device 11 determines the identification ID included in the light-emitting instruction "P". If the IDs match, the command is interpreted as an instruction to cause the own light-emitting element to emit light, and white light is emitted. The child is caused to emit light for a predetermined duration. In addition, do not emit light to an opening that is different from the identification ID to which the other ID is assigned.
  • the adjunct 11a of the identification ID (m-1) responds based on the comparison processing of the identification information comparing means 15b, and the adjunct element 11a
  • 15 c is ⁇ ID based on the light emission instruction command.
  • the light emitted by the light emitting element of each of the fff elements 11 slightly overlaps from the start of the light emission start frame to the start of the next frame.
  • the emission of frame ⁇ overlaps the emission of the next frame.
  • the light emitted by the light emitting element of each of the above-mentioned incidental elements does not emit light for a preset light emission duration.Even if all light emitting elements emit light with the same light emission duration. O Each device may emit light at any time o
  • the light emitting element of each of the attached elements 11 1 emits light sequentially in response to the light emitting instruction command sequentially transmitted from the light emitting instruction W-1 105.
  • step S7 It is received at 03 (step S7). That is, video power Since the lens 103 is sensitive to the wavelength of the light from the photon of the appendix 11, it can capture its emission image, and the result is used as the output frame image. O Therefore, in the computer system 2, the output frame image output from the moving image camera 103 for each frame in the computer system 2 By adjusting the signal strength in each image of the above, the position of the light emitting element of the incidental element 11 having the identification ID specified by being included in the light emitting instruction command in the visual field (position)
  • the computer system 2 is a video camera
  • the light emitting instruction command device 105 recognizes the identification ID of the incidental element 11 specified by the light emitting instruction command by the cooperation operation of 5 and the identification ID and moving image information. The correspondence with the frame number of the output frame image of
  • the position of the X-ray o-Xo o is located on the system that composes the server world. Sincerely, that is, to connect to the world of saba as X-o
  • the light emission instruction command is received from 105 and the identification ID matches, the light emitted from the camera is captured by the video camera 103, and the position of the light emission is occupied.
  • the position of the real world object X specified as the position of the object is linked to the object X object of the three-computer system 2 (server world) specified by the identification ID. Therefore, events that cause the real world's Xbox, such as the human environment, to be triggered, are sent to the U.R. It is possible to create a variety of services that are closely related to hanging life using computer evening networks.
  • the method of object X-cut to ⁇ is such that, for example, one side of a corner of a home or a store office is, for example, a space of about 10 m or less.
  • it can be seen at a speed that can be seen and perceived by humans, including the observable X-cuts. What you are doing
  • the eyes, tol, are motorized displays that correlate with real-world opponent images that humans are observing, such as the identification ID and location of the Xbox X-Cut.
  • the time element is attached to the X-box which is related to the content of the video base derived from the video.
  • FIG. 3 is shown in Fig. 2
  • the light emitted from the light emitting element of 1a is a moving image.
  • the video image taken at 0 3 and output as a frame image n-1-1 in the same figure is attached to the frame image n- 1 output from 03.
  • the emission image from the luminous element of 1a is shown as a circle as indicated by the reference symbol I3a.
  • the size of the emission image I3a in the frame image in the frame image. Represents the temporal integration value of the X-ray energy (intensity) of the luminescence received by the moving image camera 103. Specifically, the longer the luminescence is, the longer the time is. ⁇ The larger the diameter of the circle, the more ⁇
  • the element 11a In response to the light emission instruction ⁇ (ID m) output from the light emission instruction n device 5 at time T m during the first J period at the start of frame (n), as described in
  • the light emitted from the light-emitting element of the incidental element 11b is captured by the moving image camera 103 and is output as the light-emitting image Ib in the frame image n.
  • the element 11a In addition to the emission image Ib corresponding to the emission from the light emitting element of the element 11b, the element 11a emits light with a slight overlap at the beginning of the frame (n).
  • Luminescence The light emitted from the light emitting element of the incidental element 11b is also indicated by a small circle, and the light emitted from the light emitting element of the incident element 11b is of the frame (n).
  • the light emitted from the light-emitting element card of the incidental element 11a emits light only for a short time at the beginning of the frame (n), while the light is emitted over the entire period. Therefore, the luminescence image Ia is smaller than the luminescence image Ib and the luminescence image Ia is smaller than the luminescence image Ib.
  • the light output from the light emitting element of the incidental element 11C is a moving image.
  • the frame image n + 1 is output as a light emission image I c on the frame image n + 1, and the frame image ⁇ + 1 has a light emitting element
  • the luminescence from the luminous element of the attached element 11 b that slightly overlaps the luminescence at the beginning of the frame (n + 1)
  • the light image Ib is also shown as a small circle. Note that the emission image Ib is noise with respect to the ⁇ light image Ic.
  • FIG. 5 shows the emission image I3aI3b that appeared as noise in the frame image of the moving image camera 103 as shown in Fig. 3 as a single frame.
  • FIG. 9 is a diagram for explaining a difference process for removing by subtraction (difference) with an image.
  • the frame image nn + 1 shown in Fig. 5 is explained in Fig. 3.
  • the emission image I 3a1 3b appears as a noise, but in order to remove the emission image as a noise, the computer system 2 is used.
  • the computer system 2 is used in the example in Figure 5,
  • a subtraction process from the previous frame image is performed.
  • a frame image n for identifying the position of the incidental element 1 1b (obtain X cut ⁇ b) with the identification ID m is performed.
  • the computer system 2 subtracts the previous frame image n-11 from the corresponding frame image n by the noise processing means 23 (see FIG. 6).
  • the remaining pixel signal of a predetermined value or less is subtracted as a result of the subtraction of S 10), which is referred to as a signal (step S 11).
  • the difference image 1 2 1 ab is obtained for the Xb of the identification ID m in which only the luminescence image I b from the luminous element I b exists. Therefore, the difference image 1 2 From 1 ab, it is possible to accurately identify the position of the incidental element 1 1 b (Obn X cut Ob) of ID m according to the ID m according to the noise.
  • the computer system 2 uses the noise processing means 23 to remove the emission image Ib.
  • One frame image n is subtracted from 1 (Step S 1), and the remaining pixel signals of a predetermined value or less are silenced (Step S 1).
  • the position of C) can be accurately determined without being affected by noise.
  • the frame image signal strength is set to 1 • 1 as the target of the difference processing, but it goes without saying that the difference processing with an arbitrary intensity ratio is also effective.
  • FIG. 7 shows the emission images I3a and I3b that appeared as noise in the frame image of the moving image camera 103 as shown in FIG.
  • FIG. 9 is a diagram for illustrating a difference process that is removed by a subtraction process.
  • the convenience display system 2 doubles the signal intensity of the giant frame image for identifying the position of the incidental element 11 and doubles it. Subtracts the subsequent frame image from the doubled frame image.
  • the computer system 2 uses the noise in the frame image n for identifying the position of 1 lb (object ⁇ b) of the incidental element having the identification ID m.
  • the noise processing means 23 causes the frame image n to be doubled and the frame immediately before the frame image n to be doubled.
  • step S20 that is, the frame image of the attention (n) X 2 ⁇ frame image (n-1) + (post-frame image (n + 1)] ⁇ subtraction is performed, and the subtraction result is equal to or less than a predetermined value.
  • the pump-evening system 2 is controlled by the noise processing means 23 to obtain the frame image n. + 1 signal strength is doubled, then one frame image n and the next frame image n
  • Identification ID m from the difference image 1 2 1 bed
  • the position of the + 1's accessory 1 1 c (Ob X X O c) is affected by noise. ⁇ It is not possible to specify the position accurately.
  • the signal intensity ratio between the giant frame image and the adjacent frame image was set to 2 • 1 for the frame image that was used. I don't know
  • the subtraction processing shown in FIG. 5 and FIG. 7 described above is supposed to remove the shadow of light emission from the incidental element having the desired identification ID, but the subtraction processing is particularly effective. It is effective not only for removing the effects of various light emissions, but also for removing noise from such noise sources.For example, natural light such as sunlight. It is effective to remove noise and other fields that appear as noise, such as light and mon signals from electronic devices such as U-monitors, whose numbers have increased rapidly in recent years.
  • Fig. 9 shows the difference processing performed in Figs. 5 and 7, and in addition to the emission signal of the illuminant of the incidental element 11, the noise signal from the illuminant such as sunlight is left.
  • the computer system 2 uses the spatial filter for the difference-processed frame image n obtained in FIGS. 5 and 7. Shows an example of performing the lunar processing
  • the computer system 2 uses the noise processing means 23 to perform the frame processing after the partial processing.
  • the noise processing means 23 In the upper left corner of the f-elevation ⁇ , add the signal strength values of all the pixels in the rectangular filed U-ring range 1 26 that indicate the file size to the sum ( Figure 10). By dividing the sum by the number of strokes, the filtered U
  • the average value in 26 is used as the signal strength of each pixel in the filtered range 1 26 (Step S31) .
  • the filtered range 1 26 is While moving in the direction shown by the arrow 1 25, the processing of steps S 30 S 31 is executed for the entire area of the frame image n after the difference processing (step S 3 2)
  • the spatial filter processing of the field n the signal strength of the image that is spread over the filter size is reduced.
  • the spatial filter processing is performed.
  • the filtered frame image n1 24 is obtained after filtering, but the spatial image after frame processing n1 24 is originally ancillary with locally increased intensity.
  • the light emission signal of the light emitting element of element 1 is strengthened, and the noise signal which is not widely distributed and not strong is weakened.
  • the light emitting signal of the light emitting element of the incidental element 11 has the priority 1
  • the noise in the lower right corner is the second highest priority.
  • the center noise is the third highest priority. So, the low-priority system 2 has the highest priority.
  • the first coordinate is added to the desired object O Emission occupation of the photon of the attached element 11 can be determined as the position of the attached element 11, that is, the position of the X-box X (step S 3 3)
  • Figure 11 shows an example of using the spatial matching process instead of the spatial filter process shown in Fig. 9 for skiing.
  • Element 11 Other than the light emission signal of the light-emitting element, for example, noise matching from a light source such as sunlight lighting is removed.Pattern matching processing is performed. It is a diagram for explaining the unmatching process.
  • the skipping system 2 is provided by the noise processing means 23 by the square processing region 1 shown in the upper left corner of the frame image n after the difference processing.
  • 3 Perform pattern matching processing on the image patterns of all pixels in 1 to obtain a correlation with the definition pattern similar to the emission pattern of the light emitting element.
  • the definition pattern in the pattern matching area 13 1 of this pattern corresponds to the light emission pattern of the light emitting element of the incidental element 11 1.
  • the strength of the cone is defined as a cone where the strength decreases from the center ⁇ to the periphery of ⁇
  • the pedestal system 2 sequentially changes the packet matching area 13 1 over the entire area of the frame image n after the difference processing as indicated by an arrow 12 29. While moving, the pixel pattern within the packet-matched area 13 1 is defined as the pattern pattern, and pattern matching processing is performed. Obtain a matching result at the current position (Step S
  • the frame image n 1 2 after the pass-matching process is protected and the frame image n 1 2 after the pass-matching process is protected.
  • the shape of the emitted image is different even if the intensity of the light emission signal of the light emitting element of the incidental element 11 is large and the intensity is strong in other noise parts. Therefore, the setting value and litching value are small.
  • the intensity difference between the emission signal of the desired light-emitting element and the noise signal is widened, and it is possible to assign a priority order according to the intensity as shown in Fig. 11.
  • the light-emitting signal of the light-emitting element of the attached element 11 has the highest priority.
  • the noise in the lower right corner has the second priority.
  • the noise in the center is removed. Is determined to be a light emission signal from the light emitting element of the accessory 11 1, and the light emitting element 11 having the first priority position attached to the desired object is assigned ⁇ !
  • FIG. 3 is a diagram for explaining a process of extracting X-rays for identifying a light-emitting point of a light-emitting element of the element 11 to be detected.
  • the impulse system 2 is converted into a frame image n 12.4 by the noise processing means 23 and the spatial filter processing a in FIG.
  • the comparison is made (FIG. 13: Ste, S 50).
  • both are extracted after both processes.
  • the signal with the third priority in the spatial file after-frame processing image n124 is removed and the signal with the first priority is removed. Only the second and third place signals remain ⁇ Set a predetermined threshold based on the strength of both remaining signals and compare the threshold with the first and second place priority signals and above the threshold value Extract only the signal> (Step S5)
  • the threshold value is determined from the maximum value in the detected signal or is a value determined in advance.
  • the signal above the threshold is the only signal at the upper left, and this signal is finally determined as the signal with the highest priority, and the signal from the sensor 11 that detects this signal is detected.
  • the light emission points of the elements are different.
  • the frame image n1 24 after the spatial file processing shown in FIG. 9 and the notching shown in FIG. 11 are obtained. Determine final priority from processed frame image n 1 2 8 and camera
  • Various methods can be applied. For example, there is a method of using one of the fruits, or a method of combining the two. The choice of which method to use is a matter of judging the intended use.
  • FIG. 14 is a diagram showing a result obtained by integrating the processes of FIGS. 1 to 13 described above.
  • the computer system 2 first issues a light emission instruction command including the identification ID specified by the light emission instruction command device 105 to each accessory 11.
  • a light emission instruction command including the identification ID specified by the light emission instruction command device 105 to each accessory 11.
  • the next light emission is captured by the video camera 103. (See step S7) and output it as the output image frame containing the light emitting point
  • the noise system 2 removes the noise by performing a difference process between the output image frame and the adjacent image frame by the noise processing means 23 (Steel). S 1 0 S
  • the computer system 2 compares the frame images after the spatial file processing and the frame matching processing by comparing the priorities of the frame images.
  • the prioritization is determined among the signals within the rem, the determined signal of the prioritized priority is compared with a predetermined threshold, and finally the luminous occupation of the first priority is determined. (Step S57).
  • Figure 15 shows the correspondence between the luminous pattern of the first priority determined in Figure 13 and the position information of the accessory 11 attached to the abbot, and the coordinates in the frame image are shown.
  • Ancillary element 1
  • FIG. 4 is an explanatory diagram showing that the position information is set to 1
  • the computer system 2 is a correspondence means.
  • T m is the time when the light-emitting finger is ordered, and m is the output image from which the light emission is imaged. Frame image of the signal that was ranked first in frame n.
  • the convenience system 2 is provided with the association means.
  • Step S6 And the corresponding position in the frame image of each identification ID (m, m + 1,%) extracted from the corresponding output frame (n, n + 1,%) (Step S6 5., Step S6
  • a position data extraction file 135 in the frame image of each object is generated (step S67).
  • the position extraction in the frame image—the evening extraction file 135 is made up of each object ID (m ...
  • FIG. 17 shows the location data extraction file 1335 in the frame image of each object shown in Fig. 16 in advance and the information file in the computer system 2 in advance. In this figure, it is shown that the object is configured and handled as object database 141.
  • a file 1337 relating to the name of an X-box is illustrated.
  • the file 1337 relating to the name of the object is stored in advance as another file in the form of information about the object X (in this embodiment, the information attached to each object X File).
  • the association means 25 uses the U-Receiver 3 based on the dfck object ID based on a narrative database concept.
  • the association means 25 uses the U-Receiver 3 based on the dfck object ID based on a narrative database concept.
  • X m Y m it is possible to construct a job X 14 table that can be obtained as information that can be easily understood by humans.
  • the connection between the files may be a filer in a storage area of an external storage device such as a computer to an eight-disk in an evening system 2, or may be a filer. Repentance between a number of different pump systems via a network not shown Files in the TJ shell area
  • an external storage device such as a computer to an eight-disk in an evening system 2
  • Figure 18 shows the location extraction file 1335 and the evening file 1337 relating to the name of the object X in the frame image of each object described in Figure 17.
  • the other X is the X-shaped X-X-Dot that is linked with the X X-ID, and is the other term g for the T-file 1337, which is the object named for the object 141.
  • the information base 144 is configured by ⁇ by the associating means 25 of the computer system 2 (step S7).
  • information file 1338 information such as hobbies, purchase histories, color prices, URL-B, etc., is registered in correspondence with the card.
  • the added value of the information provided by gadegaki is increased.
  • the purchase history of the name A at the coordinates (XmYm) at time Tm is XX.
  • UR • L '(Uniform Resource] Locator which indicates the location of a file on an IP network, is used as additional information as described above. If added, it is also possible to extract information from the site of the specified URL and add it to the record information as additional information
  • connection between the files was also established by the file technicians in the storage area of the external storage te storage such as the eight-disk disk of the three-computer system 2. Is the A of files in the storage area between different computer systems via a network (not shown).
  • Fig. 19 shows the position extraction in the frame image of the ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 1 ⁇ 5 5 5 5 1 ⁇ 5 ⁇ ⁇ ⁇ ⁇ ⁇ Evening system 2 or a space built from multiple computer systems connected to the network and the information accumulated in the 3rd evening system)
  • the position extraction file 135 of the X-frame in the frame image is used as the identification ID, which is a common term between the X-cut list 13 and the X-box 13 in the server world.
  • Cyber-The object list 1339 on the top has the identification ID position time, attribute, sensing information, etc. as items 100
  • To temporarily manage a thing in the real world as an object in the server world means to manage its properties. Is usually limited to fixed information that can be supplemented in advance.For example, if it is a book, it is a book, a publisher, and so on.
  • the fixed X server was able to add the real-world location information to the real time as a big item in the above X list 1339.
  • the above information can be dynamically changed in accordance with the real world. That is, Saiha and Saibun X are managed according to the real world, and the real world is managed. Achieving a close connection to the world and joining the world with the world of Saba
  • FIG. 20 is a diagram for explaining the overall operation of another embodiment of the real world object oral knowledge system 1 shown in FIG. 1 according to the present invention.
  • the computer system The lighting of the attached element 11 that emits light in response to the light emission command is performed by the motion of the lighting device.
  • the frame is synchronized with the frame period of the camera 103, the occupation of the light emitting element of the incidental element 11 within the frame time of the moving image camera 103 differs.
  • Other components and functions are the same, and the same components are denoted by the same reference numerals and their description is omitted.
  • FIG. 21 is a diagram showing the respective attachments in the embodiment shown in FIG.
  • Video camera that captures the luminescence image from the luminous element 1 1
  • 3 shows the output frame image (image for each frame ⁇ evening).
  • the occupancy of the incidental element 11, which emits light in response to the light emission instruction from the light emission instruction device 105 by cooperating with the light emission instruction device 103, is used as a moving image.
  • the emission time of the luminous element of the accessory 11 is set within the frame time of the moving image camera 103.
  • the frame images ⁇ and ⁇ + 1 output from the moving image power camera 103 are attached to the -W element 1 1b1 1c from the light-emitting element. Only the light emission image I 3 b I 3 c appears, and as shown in FIG. 3, the portion of the light emission image from the other incidental element 11 does not appear as noise. Therefore, correct the attitude at the position of the attachment 1 1 Because it ends at every frame, the speed of the animation is as fast as the frame cycle of 103. Sense of mind is possible ⁇
  • FIG. 22 is a diagram for explaining the overall operation of another embodiment of the real-world obnext X-centre system 1 shown in FIG. 1 according to the present invention.
  • each of the additional elements 1 attached to the X-box 0 of the real world is particularly important.
  • each accessory 11 is pre-allocated to its own device by transmitting the light for a period of J times and emitting light repeatedly and of a predetermined period, for example, by a transmission means 16 d or the like.
  • the obtained identification ID is transmitted to the computer system 2.
  • the identification ID is included in the light emission and transmitted to the computer system 2. It is also possible to take any means by sending it to the computer system 2 via another communication path.
  • the computer system 2 captures the light emission of the incidental element 11 with the moving image camera 103 and transmits the light in response to the light emission of the auxiliary element 11.
  • the position of the light-emitting area captured by receiving another ID is specified as the position of the real world object X
  • the position of the specified real world object h is specified.
  • Figure 23 is the real world X X K1 shown in Figure 1.
  • 7 is a diagram for explaining the overall operation of the mind system 1 in another embodiment.
  • the light emitters 15c of each accessory 11 correspond to the control of the light emission control means 15d.
  • the video is synchronized with the frame of the camera 103, it emits light after a gad time of random length, which is periodic.
  • the accessory 11 is spontaneous when it is synchronized with the frame of the moving image camera 103 by the transmission means 16, for example.
  • the ID that is sent to the evening system is not included in the light emission, and may be sent to the evening system or sent via another communication channel. It is possible to take any means by sending it to the system
  • the ancillary element 11 is a non-periodically random gad for synchronizing with the frame of the moving image camera 103, emits light repeatedly after time, and emits light. Synchronize and identify
  • the computer system 2 Since the ID is transmitted to the computer system, the computer system 2 captures the light emission of the fir element with the moving image camera 103 and captures the light. Transmitted in synchronization with light Received another ID and received the image
  • FIG. 24 shows that the whole operation of the real-world object recognition system 1 according to still another embodiment of the present invention is expressed as p. It is a diagram for the purpose of explanation, and in particular, the accessory attached to the Xbox X 0
  • the light-emitting device In response to a light-emitting instruction command from the light-emitting instruction device 105, the light-emitting device repeatedly emits light for a predetermined period of time at a predetermined period.
  • the light emitting element 15c of the attachment 11a is operated at the time Tm-1 according to the control of the light emission control means 15d.
  • the light emission is repeated at a predetermined cycle T and spontaneously emits light for a predetermined time.
  • the element 1 1b 1 1c also responds to the light emission instruction output at time TmTm + 1 in the same manner as 1J, the element repeatedly repeats at a predetermined cycle T.
  • the light emission instruction command is repeated for a predetermined period of time ⁇ in accordance with a light emission instruction command so that the light is emitted for a predetermined time, thereby reducing the number of times the light emission instruction command is output.
  • the accessory 11 attached to the object X in the real world and assigned an identification ID in advance is a computer system constituting the hyper-world.
  • the identification information included in the light-emitting instruction command is the identification information assigned to itself. Flashes repeatedly at a predetermined period for a predetermined time in response to a flash command
  • the light emission of the incidental element 11 was imaged with the moving image camera 103, and the position of the light-emission occupancy was compared with the position of the real world X-box. Then, the position of the specified real world X-cut corresponding to the identification ID is assigned to the server world as an object corresponding to the identification ID and having the above-mentioned position.
  • FIG. 25 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention.
  • FIG. 25 the light emission of the tag 11 emitting light in response to the light emission instruction is synchronized with the frame period ⁇ f of the moving image camera 103 and the light emitting device of the tag 11 is also emitted.
  • the light emission duration is set within the frame time of the moving image camera 103.
  • the other components, operations, and effects are the same as those of the embodiment shown in FIG. The same components are denoted by the same reference numerals and their description is omitted.
  • Fig. 26 is a diagram for illustrating the overall operation of another embodiment of the real world object X 'B' knowledge system 1 shown in Fig. 1 according to the present invention.
  • the real world observing system 1 is the first moving image which is the first imaging means 22 in the embodiment shown in FIG.
  • the second moving means 30 which has the first moving image force 103 a and the same image field of view (field of view 109), is the second imaging means 30.
  • 103 b is an image of the real world object X attached to the appendix 11 and an image of the real world object taken by _ and an image of the first object.
  • Moving image The position of the object X obtained from the image captured by the camera 103a is located on the computer system 2 in the server world.
  • the other components and effects are the same.
  • One component is the same.
  • the same components are designated by the same reference numerals, and the corresponding components are omitted.
  • the second video power camera 103b is a so-called general digital camera and can capture a visible image, but it is not necessary to use a video power camera. Still image power is good
  • the light emission of the ftr element 1 1 is imaged by the first moving image camera 103 a and the light is emitted by the second image camera 103 b--fW element 1 1
  • the image of the attached real-world object ⁇ is shown in Figure 26 in the lower right corner, and the image of the object 15 1 (T m) ⁇ ⁇ , 1 5 1 (T m + 1)
  • the identifier 11 attached to the object X in the real world X is identified by the identifier I.
  • the incidental element 11 receives a light emitting instruction including an identification ID for identifying the incidental element 11 from the light emitting instruction instruction 105 of the computer system 2, the incidental element 11 issues an instruction to emit light. Emit when the identification information included in the instruction is the identification information assigned to you.
  • the emission of the incidental element 11 is imaged by the first moving image camera 103a, and the AT element is emitted by the second moving image camera 103b.
  • 11 The image of the real-world object ⁇ attached to 1 ⁇ ⁇ is taken, and the position of the luminous occupancy imaged by the first moving image camera 103 a is displayed in the real-world object X-X.
  • the image and position of the real world object ⁇ associated with the image of the real world talented object ⁇ imaged in 103 b are displayed in the world of the world (computer system 2). I'm going to say it above
  • Figure 27 shows the first video power camera as explained in Figure 26.
  • the relationship between the position of the light-emitting point of the appendix 11 captured in 103 a and the image of the real world object X-ray captured in the second moving image camera 103 b is As shown in FIG. 27, the computer system 2 has the first moving force camera 1 at the light emission time Tm by the associating means 25 as shown in FIG. 27. 0 3a
  • X m Y m) in synchronization with the imaging timing of the first video power camera 103 a at the same time T m with the second video power camera 103 b.
  • the image 15 1 a of the real world object ⁇ b is changed to ⁇ (FIG. 28, step S 80, and then the light emission time T m +
  • the sign of 1 is 13 4 (T m + 1).
  • the position coordinates (coordinate data) of the luminous occupancy of the incidental element 1 1 c (X m + 1 Y m +
  • step S81 1 is synchronized with the imaging timing of the first video power camera 103a, and is captured at the same time Tm + 1 with the second video power camera 103b.
  • step S81 1 Each of the real worlds displayed in the video content (image) by an operation like step 15 (step S81 1) of the image 15
  • the image and position of object X cut 0 can be extracted on 3 computer system 2
  • FIG. 29 shows the occupancy of the light emitted from the appendix 11 taken by the first moving image camera 103 a described in FIG. 27, the position of ⁇ , and the second moving image.
  • FIG. 5 is a diagram in which the visual force is superimposed on the image of the real world X-cut X taken by the second moving image force 103 b corresponding to the position 1 of ⁇ .
  • the computer system 2 is associated with the association means.
  • the second moving image J of the first moving image camera 103a at the light emission time Tm is taken for one second in the imaging evening.
  • the computer system 2 outputs the light emission time Tm +
  • the visible power MC is displayed according to the position of T m and T m + 1 of the small O c (attached element 11 c).
  • the visible power MbMC corresponding to the object ⁇ bOc is displayed in a folded state over 5 1 (Tm + 1)
  • an image which is displayed in a magnified manner as in an example in which the field X-cut can be easily confirmed is displayed on the image display means 26 of the computer system 2.
  • Displayed on the play screen and the position of the force is specified by the user in the input means 32 (for example, by mouse).
  • Te-time 2 desired (which is pre-Me 'flop opening g) this to execute an operation
  • the usability of the HyunTuff X can be greatly improved.
  • it can be used as a display.
  • you can use the stencil or your finger to touch the displayed force on the screen.
  • FIG. 31 is a diagram illustrating the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention.
  • one of the visual field regions 109 of the first video power camera 103 a and the second video power camera 103 b of the embodiment shown in FIG. 26 is used. Or finally both a.
  • ⁇ ⁇ Larger than the image content frame to be provided to the user and wait for the side of the real world object X-cut that exists outside the image content frame. Identification information of the real world object that was captured and grasped by capturing the first video power camera 103a and the second video power camera 103b or both. It is intended to be used for a fortune-telling
  • the image display means 26 in the evening system 2 is a user who is finally a user.
  • the image content V frame provided to the user is 16 1 As shown, the size ⁇ Ah Ci
  • the visual field range of the second video camera 103 b is 1
  • image display means 2 in the computer evening system 2 are furthermore, image display means 2 in the computer evening system 2
  • the field of view of the first video camera 103a is set outside the field of view 162 of the second video power camera 103b as shown by 163.
  • the second moving image force 103 b and the field of view 162 of the first moving force camera 103 b are the actual moving X-cut of the peripheral region.
  • the outside of the screen frame near the outside is outside the screen frame, and the first and second moving image power lenses 103 a and 10 0
  • each real object (o a O g) is marked with a white circle and each real object is
  • the real world object existing outside the image content frame is used.
  • the state is defined as an image based on the image of the first moving image power camera 103a ⁇ the position and / or the second moving image power camera 103b.
  • a real world object that exists outside the image content frame (for example, a real object O dof) Is in the field of view of the power camera 103 b and / or the field of view of the first video camera 103 a, even if ⁇ It is possible to smoothly recognize the corresponding real world object X by using the position and video information that was previously grasped as a promotion standby letter.
  • FIG. 32 shows the field of view of the first video power camera 103 a and the field of view of the second video power camera 103 b in the embodiment of FIG. As shown in FIG. 31, other configurations and operations are the same as those in FIG. 31.
  • FIG. 33 is a diagram for illustrating the overall operation of another embodiment of the real-world object-centered system 1 shown in FIG. 1 according to the present invention.
  • the accessory 11 is one of the position information output sections 15, the operation section 16, and the sensing section 17, which is less than the position information output section 15. And sensing part
  • the identification element is assigned as shown in Fig. 1, and the attached element 11 attached to the real-world obu factory o is shown in Fig. 2.
  • a real-world object with an additional element 11 is also provided.
  • sensing information transmission means 40 and the sensing information transmitting means of the empire overnight system 2 on the sensing information about the real world 'world ob X X', which the person has learned. Equipped with a sensing unit 17 that transmits to the light emission instruction command / signal receiving unit 210 that constitutes the sensing information receiving unit 41
  • the light emission instruction / signal receiving section 210 receives sensing information on the real world X-box 0 from the sensor of the additional element 11, and outputs the signal.
  • -Evening system 2 needs sensing information on real world object 0.
  • the location of real world object 0 specified in the implementation form in Fig. 2 is also required.
  • an accessory 1 that specifies an accessory 11 and includes a sensing instruction command, such as an RF signal, that includes another ID.
  • the incidental element 11 receives the sensing instruction 8 from the light emission instruction / signal receiving unit 210 by the sensing instruction or communication means 17b, and compares the identification information comparison means 17c. Thus, when it is determined that the identification ID included in the received sensing instruction command is the identification ID assigned to the user, the real-world object that has been written is detected.
  • X Sensing information related to 0 Transmit from the information transmission means 17 d to the optical command / signal receiving section 210 as an RF signal, for example.
  • the flash instruction command / signal receiving unit 210 receives the sensing information of the flash.
  • the attached ⁇ thread 11 divides the sensing information about the real world object Xkh sensed by the sensing information transmitting means 17d into itself. Assigned identification
  • the light emission instruction command / signal receiving section 210 Along with the ID, it is sent to the light emission instruction command / signal receiving section 210 in a spontaneous manner, and the light emission instruction command / signal receiving section 210 receives and receives the sensing information and the identification ID of the LED. Of the sensing information transmission source is identified by the identified ID.
  • the sensor is mounted on the attachment 11 and the temperature sensor sends it to the light emission instruction command / signal reception unit 210 at predetermined time intervals by the temperature sensor.
  • the transmission of sensing information is a case where the output of the sensor exceeds a threshold value that can be detected, for example. Then, for example, At which time the sensing information is sent from the incidental element 11 to the light emitting instruction / signal receiving section 21 1
  • the light emitting finger transmitted to the device 0! The command / signal receiving unit 210 receives the identification ID transmitted from the element 11 together with the sensing information of the It is possible to determine whether the information is based on the sensing information of the real world talented
  • the shape of the object and the statue in the vicinity of the real world oven X are, for example, ovenek white ⁇ ⁇ dish, vibration, acceleration, tilt, pressure place, etc.
  • the computer system 2 uses the associative means 47 to extract the sensing information obtained in the excavation 33 from each of the information shown in Fig. 18.
  • the file in the frame image of the object X X 1 3 5 and the file associated with the object name-the file 1 3 7 X Closing evening Base 1 4 1 ⁇ ⁇ , and the order of each object X-cut and the sensing ⁇ evening associated with m • Sensing Generates a file extraction file 18 1 (step S 100) and assigns the position of each object X h to the sensing file 18 1 Identification for
  • Sensing completed evening extraction file 18 1 is the location extraction image in the frame image of each X-cut box shown in Fig. 16. Identify to cells 135
  • the sensing information output from the sensor of the incidental element 11 with D as a general term is added, and each object is recorded on the computer system 2 in advance.
  • the attribute information file 183 is the sensing information obtained by the sensor for the evening file 1337 relating to the object name shown in Fig. 17.
  • the attribute information of the sensing information that was previously recorded as attribute information 1 is also registered as the attribute information of the sensing information registered in advance as shown in the figure. Heart rate position Content is present
  • the degree of inn, humidity, etc. that can be obtained as sensation information is compared to the registered sensing information registered in advance in the file.
  • the correspondence of the sensing information taken in the embodiment of FIG. 3 3 to the correspondence of the sensing information is managed in the job management table 18 5 to manage and provide the sensing information.
  • FIG. 35 shows the real world object X shown in FIG. 1 according to the present invention.
  • FIG. 2 is a diagram for explaining the overall operation of another embodiment of the system 1
  • the three-stage system 2 is connected to the associative storage means 47, and is located at the position shown in FIG. 34.
  • File 18 1 is recorded in the sensing information located on the IP network 15 1, which is located on the network. Attribute information file of each object registered in advance on the network 1
  • the identification ID for 8.4 is combined as a general term (link) to form the Obuji Plant Management Dinner-evening 1185
  • FIG. 36 shows the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention.
  • the computer system 2 As shown in FIG. 36, the computer system 2
  • the object management database 1445 is constructed by associating 182 with the object X file list 13 on the computer system 2. Step S120).
  • OBON X which is managed in the SYPA world (on the computer system 2), as described in OBJECT X CLUSTER FILE 13 on SYPA Sensing Information is also provided.
  • FIG. 37 shows each of the components in the embodiment shown in FIG. 26.
  • a transmission / reception unit 190 (a light emission instruction transmission means 21, a sensing instruction transmission means 40, and a sensing information reception means).
  • FIG. 41 (Corresponding to 41) is a diagram configured to transmit a sensing instruction command to the attached element 11 and receive sensing information from the attached element 11. , And other configurations and operations are the same as those in FIG. 26 and FIG. 33, and description thereof will be omitted.
  • FIG. 38 shows the image of the real world object 0 taken with the second moving image camera 103b, and the position of the light emission of the tag 11 shown in Fig. 27,
  • FIG. 13 is a diagram in which sensing is further added as information of the auxiliary element 11 in the connection of FIG.
  • the computer system 2 is based on the image captured by the first moving image camera 103a at the light emission time Tm according to the associating means 47.
  • the sensing time D m (indicated by reference numeral 191 a) sensed at the flash time T m is changed to the imaging time of the first moving image camera 103 a.
  • Real world talented buzzer X at the time Tm with the second video power camera 103b Ob image 1 5 1 (T m) (Fig. 39 Step S 1 3 0
  • the identification ID of the real-world pupil X ku h obtained from the image picked up by the first moving image camera 103 a is denoted by the code 1 3 4 (T m + 1), the position coordinates (X m + 1 Y m + 1) of the light emitting point of the subscript 1 C, and the sensor sensed at the light emitting time T m + 1 Sing-Evening
  • the system is connected to the desired evening (for example, reception is possible) based on the image position of the real world object ⁇ and the sensing area. Or in response to instructions from the user) on the image of the real world Oven X Quad, for example, the position of the luminous occupation (Object 0b) Tt
  • the incidental element 11b can detect the bypass data (human) 0b of the data (biological information: blood pressure, pulse, body temperature, etc.). If there is a sensor 17a, it is also possible to display the detected date and time as a numerical value (by night value) on the corresponding object box ⁇ b.
  • the display position of the Bayer value is linked according to the movement. It is possible to visually observe the change in the pile value at each Ob position.
  • FIG. 40 shows the position of the light-emission occupancy of the auxiliary element 11 shown in FIG. 29 and the real-world object ⁇ b imaged by the second moving image camera 103 b.
  • the visual abilities Mb are superimposed and displayed on the image ⁇ 15 1 (T m) L 5 1 (T m + 1) ⁇ of the real world object 0b.
  • the information of ancillary element 1 1 is added to '-Sensingde-overnight Dm Dm + 1
  • FIG. 41 shows another embodiment of the real world observable X-cut knowledge system 1 shown in FIG. 1 according to the present invention.
  • Ancillary element 11 in this embodiment table is a position information output unit.
  • the operator 16a in the operation unit 16 is, for example, an actuator, and the actor is in the real world, for example, in response to a mechanical input.
  • the mechanical action of e.g., a vibrator LED
  • the light emission instruction / signal reception The unit 210 transmits an operation including, for example, an additional information specifying the tag 11 by an RF signal, for example.
  • Each of the appenders 11 receives the operation command by the operation command receiving unit 16b, and the identification information comparison unit 16c includes the operation command in the received operation command.
  • the action is performed on ⁇ ), and the predetermined work is performed by the child actuator 16a. p.
  • auxiliary element 11 is provided with its transmitting means 16d, and may be actuated, if necessary, to receive an operation command reception confirmation oral signal and / or an actuating signal.
  • X X including the overnight execution result (operation result) Sends an overnight execution notification signal to the light emission instruction command / signal receiving unit 210
  • the light emission instruction command / signal receiving section 210 receives the actuating operation command reception confirmation signal or the actuating overnight execution notification signal from the accessory 11 and outputs the signal. Based on the reception result, the information about the operation function of the work X X is transferred to the identification information of the corresponding object X, the information related to the job X, or the information processing function. I'm getting involved
  • FIG. 42 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
  • FIG. 42 shows each auxiliary element in the embodiment shown in FIG.
  • a work 16 is provided in 11 as shown in Fig. 41, and
  • the light emitting finger 7 command / signal receiving section 190 (corresponding to the light emitting instruction command transmitting means 21, the operation command transmitting means 45, and the receiving means 46) in the illumination system 2 is activated.
  • a command is transmitted to the accessory element 11, and the action execution notification and / or the operation command reception confirmation signal is transmitted from the accessory element 11 again.
  • Other configurations and operations are the same as those in FIGS. 26 and 41, and a description thereof will be omitted.
  • Fig. 43 shows the occupancy of the light in Fig. 27,
  • the X-E is a diagram with information on the operating function added.
  • the computer system 2 obtains the image obtained by the first moving image power camera 103 a at the light emission time Tm by the associating means 47.
  • the coordinates of the light emitting point of the incidental element 1 1b indicated by the code 13 4 (T m) with the identification ID of the real world object ID m (X m Y m) and at the above light emission time T m Worked X X 1
  • the information Am (indicated by reference numeral 201a) representing the actuator 6a of the 6a is transmitted to the imaging wing of the first moving image camera 103a for one mouth J period.
  • Image at time Tm at time pm is transmitted to the imaging wing of the first moving image camera 103a for one mouth J period.
  • the computer system 2 sets the light emission time T m + 1 in 1 ft] Image Power Camera ID 103 ID of the real world object X obtained from the image created by it f 3 a Illumination of 1c c
  • the operator system 2 can set the desired evening based on the information on the image position of the connected real world X and the operation function of the X X
  • Fig. 44 shows the positions of the light-emitting points of the tag 11 shown in Fig. 29.
  • the image of the real world object ⁇ b In the association between the image of the real world object ⁇ b and the image of the real world object ⁇ b taken with the imager 103 b of the second device, the image of the real world object Xb 0b ⁇ 15 1 ( ⁇ m) 5 1 (T m + 1) ⁇ with visible power M b superimposed on it, and further information on the actuation function of the actuator X X as information on the auxiliary element 11.
  • a m + 1 (see Fig. 43 and Fig. 44) is added to the figure. Other configurations and operations are the same, and the description is omitted.
  • the input means 32 may be used as an example.
  • the corresponding visual force Mb is specified (clicked) by the mouse
  • the note of the system ⁇ is displayed.
  • the switching system 2 displays information indicating, for example, the operation result of the actuation of the incidental element 11b corresponding to the clicked visual force Mb, for example, visible. It can be displayed on or near the display position of the force M b, and the user can visually recognize the displayed operation result information.
  • FIG. 45 is a diagram in the case where the visible light emitter 16a is used as a work in the embodiment shown in FIG. 41, and other configurations and operations are shown in FIG. Note that the auxiliary element 11 is the same as the light-emitting element 15c which emits light in response to the light-emitting instruction from the light-emitting instruction command / signal receiving unit 210, as described above. Applicable with W element It has a visible light emitting element as an actuator in addition to the child.
  • the light emitting instruction tap is applied to the visible light emitting element provided as an actuator in the auxiliary element 11 1.
  • the incidental command receiving means 16b of the attached device 11 transmits the visible light emission command to the device.
  • the other ID included in the visible light emission instruction received by c is determined to be the identification ID assigned to itself, it is visible according to the visible light emission instruction command to ⁇ . Activate the light emitting element 16a and send a response signal to the visible light emission instruction command to the emission instruction command / signal receiving unit 210.
  • the light emission instruction / signal receiving section 210 receives a response signal from the auxiliary element 11 to the visible light emission instruction, and receives the response signal.
  • FIG. 46 is shown in FIG. 26 in the case where the visible light emitting element 16 a is used as an accessory in the appendix 11 as shown in FIG. In the case where the second video power camera 103b is installed ⁇
  • the other configuration and operation are the same as those in FIGS. 45 and 26.
  • FIG. 47 is a real world object shown in FIG. 1 according to the present invention.
  • FIG. 3 is a diagram for explaining the overall operation of another embodiment of the knowledge system 1, particularly for clarifying the position a of an X-X cut within the visual field of a moving image camera. Come out In the embodiment shown in Fig. 47, the attachment 11b is attached.
  • Fig. 4 shows the processing when the real world object Xb 0b appears in the field of view of the video power camera 103.
  • Tag 1b w Opened X cut 0b, which is a gfc shot, is a moving image
  • the computer system 2 is a
  • the frequency of the light emission instruction command to the oven Xk h is made variable, and after the appearance is determined, the light emission instruction command to the attenuated X light b, which has been reduced, is given.
  • the frequency of the light emission instruction command to the oven Xk h is made variable, and after the appearance is determined, the light emission instruction command to the attenuated X light b, which has been reduced, is given.
  • FIG. 49 illustrates the overall operation of another embodiment of the real world smart X-connect system 1 shown in FIG. 1 according to the present invention. This is a diagram specifically explaining the process of leaving an animation out of the field of view of a video camera.
  • the ⁇ -computer system 2 sets the time constant ⁇ T for a predetermined time constant. Then, the identification of the object ob
  • the object 0b of the ID exits from the visual field region 109, and the object is c »t detected (step S1661).
  • FIG. 51 is a diagram for illustrating the overall operation of another embodiment of the real world of X-Central core knowledge system 1 according to the present invention.
  • FIG. 7 is a diagram for explaining a process of performing body surveying between platforms.
  • a plurality of moving image lenses are used to detect the light emission from the auxiliary element 11 attached to the object ho. Apply the three video power cameras that correspond to each other and apply the light emission intensity obtained from each video power camera. The spatial position information of the obtained real space X-X is obtained.
  • the lens system of three video power cameras 103 X 103 Y 103 Z An example is shown in which the optical axes are arranged so as to be orthogonal to the XY axis, but from the position extracted from the two-dimensional frame image signal from the moving image camera.
  • step S8 of FIG. 4 the computer system 2 uses three optical axes orthogonal to the XYZ axes for three moving image cameras 103 X 1 0 3 y 1 0 3 Extracted from Z and 1 port]
  • the moving image lens 103a becomes light emitting of the incidental element 11b of the object 0b.
  • System time is past time
  • the object O b (D n section containing the past light-emitting points is captured from the shadow image of the second moving image camera 103 b at ⁇ t 1 (step S 1 7 1) Since the talent ⁇ b is a person, the hull of the person is extracted by image processing.
  • the computer system 2 emits light from the incidental element 11b based on the right of the captured object 0b. As long as you are not aware of it, follow the movement of the contour of object 0b from the image taken by the second moving image camera 103b as shown in Fig. 52 (c). Thus, the temporal obscuration of the light emission of the incidental element 11b with the incident object Ob is compensated for, and the position of the observable element 0b (the incidental element 11b) is predicted.
  • the motion vector is calculated based on the distance (Fig. 5
  • Step V S 180 and from the calculated motion vector, a position where the next light emission will be detected is estimated (Step V S).
  • step S 17 1 S 17 2 or the processing in step S 180 S 18 2 Since the position of the hidden shadow X 0 h 0 b has been estimated and captured, as shown in FIG. Then, the object b comes out of the concealed state, and the incidental element 11b emits light again. It is possible to quickly detect the object X 0 h (attached element 1 1 b) in the shape P
  • FIG. 55 is a diagram for illustrating the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention, and in particular, it is accompanied by an object.
  • FIG. 9 is a diagram showing a process using a sample.
  • the computer system 2 is described in FIG. 6 and FIG. 8 in order to surely recognize the light emission of the vesicular object that is recognized.
  • a template 231a similar to the past light-emitting partial image of the attached element 11 is added to the frame image n227 obtained by executing the subtraction processing.
  • the whole frame of the frame image n227 after the difference processing is subjected to the touching processing as shown by an arrow 222 (step S190).
  • the computer system 2 calculates an intellectual distance (interest) for the template for each locus calculated by the matching process, and calculates the perceived distance of the mouth center distance. Get distribution 2 2 8
  • Mouth distance distribution Based on the distance difference (difference in degree of difference) of -3o to 2 2 8, the signal with the highest S and the mouth tc distance (smallest degree of difference) is the first signal, the next signal Priority recognition order, such as 2nd place
  • the combi-evening system 2 desires the first-priority locus by judging the higher-priority object as the light-emitting signal image of the light-emitting elements of the incidental element 11.
  • the position of the object is determined. (Step S192).
  • FIG. 56 is a diagram showing a process in which a past light emission partial image is used as a template in the embodiment shown in FIG. 55.
  • the system 2 performs the past processing on the frame image ⁇ 2 27 after the difference processing. While the light emitting partial image of the incidental element 11 is used as a template 2 3 1 b, the entire area of the frame image n 2 27 after the difference processing is indicated by an arrow 2 29 for the entire area of the frame image n 2 27.
  • the computer display 2 calculates the ⁇ ′ ⁇ recognition icB distance (difference degree) with respect to the template for each coordinate calculated in the V-matching process, and calculates the difference between the two.
  • the distribution of the recognition distance 2 228 a is obtained (step S 201). Based on the distance difference (difference in degree of difference) in the distance distribution 228a obtained as a result of the following:
  • the priority of the signal is 1st, and the next signal is the 2nd, etc.
  • the computer system 2 determines that the one with the highest priority is a light emission signal image from the light emitting element of the incidental element 11, and determines the coordinates of the first priority according to the desired coordinates. It can be determined that the occupied position of the luminous element of the attached W element 11 attached to Bunek 0, that is, the position of the attached element 11 is subtracted from the position of Obek 0 (S Step S202).
  • Fig. 57 is a diagram showing the processing using the template used for the light emission occupation position of the incidental element in the past in the embodiment shown in Fig. 55.
  • the computer system 2 executes the difference processing described in FIG. 6 and FIG.
  • the frame after differential processing was used, using the template 2311c used for locating the light emission occupancy of the incidental element in the past.
  • the computer system calculates the perceived distance (the degree of perception) for the template for each coordinate calculated by the matching process, and then distributes the perceived distance.
  • the computer system 2 determines the position with the highest priority by judging the one with the highest priority as the light emission signal image from the light emitting element of the incidental element 11. Light emission of the attached element 11 attached to the Oven X-Cut! If the position of the incidental element 11 is subtracted from the position of the incidental element 11, it is determined that the position of the object 0 is determined (step S 2 12).
  • FIG. 58 is a diagram for explaining the overall operation of another embodiment of the real-world object X-recognition system 1 shown in FIG. 1 according to the present invention.
  • FIG. FIG. 7 is a diagram showing a process during a change of a photographing condition of the photographing means.
  • the system 2 outputs the frame image signal output during the changing of the shooting conditions. Or, it is discarded and the process of detecting the light emitting position of the accessory 11 is interrupted (Step S220).
  • the shooting condition of (3) is changed (being changed).
  • the frame image (n) is displayed in fm.
  • FIG. 1 is a diagram for illustrating the overall operation of another embodiment of the real world object X-Cut system shown in FIG. 1, particularly illustrating a process at the time of a collision. It is a diagram for
  • the light emitting position information extracted in step (1) is discarded.
  • the amp-even system 2 uses the differential processing obtained by the differential processing described in FIG. 6 or FIG. -The image signal ⁇ 2 2 4 is subjected to the space filter processing and the power matching processing described in Fig. 10 and Fig. 12 respectively. Then, the resulting frame image after the spatial file processing ⁇ 2 2
  • Step S 2 3 Discard the extraction position coordinates at the time of the second frame image (step S2 32)
  • FIG. 60 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
  • Fig. 3 is a diagram for explaining the process related to
  • the pedestrian illuminates the light emitting tan of the incidental element 11 multiple times, and recognizes it as the position of the incidental real world object h.
  • the auxiliary element 11 is spontaneously generated by the white element 11 or the moving image power is controlled by the light emission control stage 15d according to the command of the light emitting finger 7JN command block 105.
  • Light-emitting element 1 while synchronizing with frame 103 of light-emitting element 1 while changing to one light-emitting pattern P (light-emitting, light-emitting, non-light-emitting, non-light-emitting) in 5 frames.
  • the light emission pattern 'P that causes 5 C to emit light is, for example, the identification ID of the auxiliary element 11.
  • the recognition ID is, for example, 5 bits (111)
  • the attached element 11 emits light when the corresponding bit is 1, as shown in Figure 60. Is output as non-emission, and the visual power camera 103 of the computer system 2 recognizes this emission turn for the corresponding 5 frames.
  • Fig. 61 shows that a template whose central light intensity is near the maximum exposure value and whose light intensity decreases conically from the center is used as a template. Illustrated
  • the computer system 2 was used to perform the difference processing described in FIGS.
  • the light intensity at the center of the incidental element is set near the maximum exposure value for the frame image n 2 27 after the differential processing a obtained by executing the above, and the light intensity decreases conically from the center.
  • the arrow 2 2 is applied to the entire area of the frame image n 2 27 after the difference processing.
  • the matching process is performed (step S25 ⁇ ), and then the computer system 2 performs the matching process for each locus calculated by the matching process. Calculate the distance between mind and mind (the degree of relevance) for the sample, and obtain the distribution of the sense distance 2 288 X (Step V S 2 51).
  • the shortest recognition distance is obtained. (Small degree of reason) The signal is ranked first and the next signal is ranked second and so on.
  • the high-priority system 2 determines that the high-priority object is a light-emitting signal image from the light-emitting element of the incidental element 11, it prefers the first-priority locus. If the position of the luminous occupancy of the light emitting element of the attachment 11 attached to the object 0, that is, the position of the attachment 11 is subtracted, it is determined that the position is the position of the object. Step S 2 5 2
  • FIG. 7 is a diagram showing a process in a case where a plurality of accessories each having a plurality of light emitting elements are attached to an object Xh.
  • a plurality of (two in this embodiment) light emitting elements 11 1 a 1 1 1 b having different emission wavelengths are provided for each of the elements 11 a 1 1 b 1 1 c.
  • Two filters with emission wavelengths of ⁇ 1 and ⁇ 2 are assigned to each Xbox 0 in the real world, which is equipped with a different filter for the video power camera 330. Having accessory 1 1a
  • the filter characteristic diagram of 330 As shown in the filter characteristic diagram of 330, a filter whose attenuation is larger in the wavelength of ⁇ 1 than in the wavelength of ⁇ 2 is installed in the imager 33. .
  • the output frame image captured by the moving power camera 330 emits light of the emission wavelength of the incident wavelength of the incidental element having the light emitting element of the wavelength of ⁇ 1 as shown in the figure.
  • the light emission pattern from the auxiliary element attached to the real world object is a special light emission pattern, so it is easy to distinguish it from other noise light sources.
  • FIG. 63 shows a view of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
  • FIG. 10 is a diagram for converting the overall operation of another embodiment m, particularly for illustrating a process in which the light intensity of the light emitted from the tag is variable.
  • the emission intensity of the incidental element 11 attached to the open X is modulated by a combination of strong and weak ⁇ , and the variable pattern is illuminated and attached.
  • the auxiliary element 11 is an element.
  • the synchronizing with the frame of the moving image camera 103 according to the command of the device 105 for example, at 5 frames.
  • Light-emitting element 15 c is illuminated at P 1
  • intensity modulation at 0 P P 1 is an ancillary * It is possible to correspond to the other ID of H11 (the other ID of the attached real X-cut)
  • the incidental element 11 indicates the light emission variation when the bit corresponding to ⁇ shown in the figure is 1. If the corresponding bit is 0, it is sufficient to output with the light emission intensity weakened.
  • 3 is the light emission change during the corresponding 5 frames.
  • the light emitting position extracted from each frame image signal when you are sure that the light emitting position is the identification ID m. ⁇ > The position of the object is recognized.
  • Step S260 In this embodiment, S ⁇ J has been described with an example of 5 bits, but the present invention is not limited to this, and the light emission intensity is modulated by an arbitrary number of bits corresponding to the identification ID. Good
  • FIG. 64 is a diagram for explaining the overall operation of another embodiment table P of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
  • FIG. FIG. 9 is a diagram showing processing of a field ⁇ in which a plurality of incidental elements are provided.
  • the number of the light emitting elements of the auxiliary ⁇ 1 element 11 attached to the object ⁇ in the real world is provided.
  • the light intensity can be varied by using the four light-emitting elements 1 1 2 a 1 1 2 b 1 1
  • the light emitting elements 1 1 1 1 a 1 1 1 d are arranged sufficiently close to each other.
  • light emitting element 1 1 2a 1 1 2b 1 1 2c 1
  • FIG. 65 is a diagram for explaining the overall operation of another embodiment of the real world gift object recognition system 1 shown in FIG. 1 according to another embodiment table t of the present invention.
  • FIG. 4 is a diagram for explaining a process of setting a region having a light emission area ratio of a predetermined value or more in a minimum rectangle including a region having a light reception intensity of a predetermined value or more as a light emission target.
  • the computer system 2 is used to accurately recognize the emission of the real world object X, which is known, and to avoid the knowledge of other disturbance light sources.
  • the light emission area ratio in the smallest rectangle that includes the area where the light receiving intensity is equal to or more than the predetermined value is obtained.
  • a region where the light emission area ratio is equal to or more than the predetermined value is searched (step S270), and a region where the luminous area ratio is equal to or more than the predetermined value is mainly detected.
  • the target is m n (step S 271).
  • the light-emitting surface mosquito rate in the smallest rectangle containing the light-emitting pattern of the attached object element of the world object is 70% or more.
  • the highest priority is given to the luminous patterns of 70% or more of the emission patterns, and the emission patterns of 70% or less are set to the disturbance light source, and the priority is given to Shinobu p83 ⁇ 4. Removed, etc. 0
  • the luminous occupancy from the disturbance light source is set to ⁇ , — nm as the luminous occupancy of the ancillary element.
  • the light emitting element was used as a function to emit the position information of the auxiliary element 11, the light emitting element was used instead of the light emitting element f or-or the GPS combined with the light emitting element.
  • the position detection method described in the prior art can be applied.o For example, to acquire the position information of the accessory In addition, a position identification system based on triangulation based on super waves is used. It is also possible
  • the identification ID is sent from the central entrance through the radio channel.
  • the pulse of the said wave is transmitted, and the sensor of the ceiling receives it and calculates the position by the diagonal method from the difference of the propagation delay time.
  • the whole system includes the central controller and the controller that controls the wave sensor network.
  • the system recognizes and positions 75 X-boxes per second by the system.
  • the location of all objects in the building, including the object J, and the location of the U source are integrated in a distributed X-cut oriented model. Abstraction can be achieved by presenting the spatial correlation between the X-books that are commercially felt by the humans to the application to the application software Xa.
  • the space system is a U-ring system ⁇
  • the C0 RBA expressed in the form of a network is a standard of the object-oriented networking infrastructure required for realizing a distributed X-system, for example, in the real world.
  • the hyperbasic force of the office is the same as that of the CORBA object for real objects such as a map.
  • the current blog of the real world Oven X is the same as that of the CORBA object for real objects such as a map.
  • the real world smart X-ray X-ray which emits infrared light to acquire the positional information of the incidental element, is used as a technique to recognize the sense of mind using an infrared sensor or infrared force camera. ID can be obtained at the same time It is possible to use an ID camera that can be used as a large image sensor.
  • a light-emitting diode that controls blinking by a so-called bin as an accessory is attached to the real world opzik h (subject), and the ID is assigned to it.
  • the bin repeats occupation based on its ID, and it detects and analyzes the occupation pattern using a video camera (ID camera). O Recognizing the ID The ID is compared to the infrared U-mon, which is displayed over the subject image. Bins are infrared U-monitors, and the ID input camera is a remote receiver. This is an array sensor (CM ⁇ S dim sensor) with the machines arranged in an array 0
  • the ID camera is an ordinary camera.
  • a W element with an infrared ray is embedded in the actual object X, and the infrared accessory is put in the infrared region.
  • the emission center wavelength is 800 nm, 825 nm, 8
  • the dangling wave region (the center wavelength is 800 nm, 85 (The infrared pass filter of 0 nm 900 nm is attached to the CCD force filter.) .
  • an accessory identification technology for example, a method of mounting an evening consisting of five LEDs on an actual object X and shooting with a camera can be used.
  • the obtained video of the hidden camera is analyzed, tag information is read, and the position in the video is calculated.
  • the four at the periphery repeatedly turn on and off at the same timing, play the role of a clock signal, and the center LED Lock signal flashes 1 Z 4 Phase delayed and occupied.
  • Send evening signal
  • the ⁇ D signal in the evening is a roughly diamond-shaped signal in the image. Since it is captured as a region, it is possible to select a quick signal source by limiting the angle formed by the four peaks in all combinations of the four regions.
  • the rhombus is disjointed, the area where the rhombus is located in the most recent video frame is matched.
  • the clock signal is turned on or off, it is determined whether or not an LED is found near the center of the diamond.
  • the transmission speed can be any speed less than 5 Hz, so the tag transmission speed is 4 Hz.
  • a small wire sensor using optical communication technology can be used as an accessory.
  • the line communication technology being studied in systems using tw-wire sensor nodes is optical communication technology.
  • the light transmitted from the base station laser-light source can be used.
  • a small reflective laser formed on the sensor is used to return the optical signal as an optical signal by returning or removing it in a direction parallel to the optical axis incident on it ⁇
  • a normal sensor node that can be made around B will return the reflected light in parallel to the base station by moving an ultra-small reflector when receiving an unmodulated beam. Change the reflected beam by removing or removing it. When he returns, he gets out.
  • the miniature reflectors are used to reflect each other's three surfaces formed inside the three corners of the body.
  • the spatial resolution that can be achieved by realizing space division multiplexing optical communication depends on the number of pixel arrays in the CMOs sensor.
  • the pixels received at the 25 6 x 25 6 pixel array each have a pixel box corresponding to the area between 6 • 6 Cm 2. If it is separated by the distance of another place, it will be a signal from another sensor node (from three senses
  • the transmission speed depends on the frame period of the CCD sensor.
  • the present invention is not limited to the above-described embodiments and examples. ⁇ The present invention is not limited to the above-described embodiments and examples. It can be implemented in the form.
  • the present invention relates to a real world object for identifying real world object information, which is information about real world objects, by means of a compilation system constituting a server world.
  • a server for real-world objects and a computer-system that composes the world supports real-world objects X , which is defined as follows.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

A real world object recognition method comprising a step of allowing attached devices (11a, 11b, 11c) which are attached to respective real world objects (Oa, Ob, Oc) and to each of which unique identification information is assigned to transmit the identification information and position information representing the positions of the attached devices (11a, 11b, 11c) and allowing a computer system (2) to receive the information and a step of allowing the computer system (2) to determine the positions of the real world objects (Oa, Ob, Oc) corresponding to the attached devices (11a, 11b, 11c) on the basis of the identification information and the position information and to recognize the devices.

Description

実世界ォ ブン X ク 卜 。心 方法お よ び壮 な ら びに付紫 素子 Real World X-Cut. Heart method and magnificence and purple element
技 分野 Technical field
 Light
本発明 は 実世界のォブン ェ ク 卜 に 関する情報で あ る 実世界ォブン ェ ク 情報を細サィ バ 世界を構成する 3 ン ピ ュ 夕 シス テム に 。心識する ため の実世界ォブジ X ク 卜 。心 方法およ び装 な ら びに付 子に 関する 置 背 技術  The present invention provides real-world object information, which is information about real-world objects, in a three-computer system that constitutes a fine server world. A real world Obuji X Kutto for your knowledge. Technology related to heart method, armor and accessories
近年 ン ピ 夕 が通信ネ ッ 卜 フ , ク に よ Ό 相互 に 接 さ れ 更に丁 ン夕ル T V な どの ジ夕 ル家電か ら セ ンサや ァ ク チュ X 夕群に至る ま で ネ V 卜 ヮ ク を介 し て相互に接 さ れ れ ら を用 い た広範な分野で多種 多様なサ ビス が開発さ れ 利用 さ れる 可能性があ る こ の う なサ ―ビス の実行には 通信ネ ッ 卜 ヮ ―ク で 相互に接続さ れた Π ン ピ ―夕 内 の実行状 の プ 口 グ ラ ム が互い に通信 し □ いなが ら サ ビス を達成す る た め に 協調動作を行つ て い る の よ う なサ ビス を実行す る ソ フ ゥ ァ の 開発では 分散ォ ブンェ ク 卜 環 で利用 さ れて い る J a V a (登録 ) PPや分散ォブン X ク シス テム を実現す る ため に不可欠なォブンェ ク h 指向 ネ V V ク 盤で あ る c 〇 R Β A ( C o m m o n 0 b j e C t R e Q u e s t B r o k e r A r C h i t e C t u r e ) な どのォブン X ク ト 指向の シス テム が主流にな り つ あ る In recent years, the network has been connected to communication networks, and has been connected to each other. In addition, the network has ranged from household appliances such as TVs to sensors and factories and X-groups. There is a possibility that a wide variety of services may be developed and used in a wide range of fields that are connected to each other through a network. The pumps interconnected by a network are connected to each other by the pumps in the evening, and cooperate with each other in order to achieve services while communicating with each other. In the development of software that implements services such as those that use JavaVa (registered) PP and distributed Xobn X systems, which are used in distributed object networks, It is an essential object for realizing h-directed VV c c 〇 R Β A (Common 0 b) Xt-oriented systems such as bje C t R e Q uest B roker A R C hite Cture) are becoming mainstream.
すなわ ち 、 実世界 を Γモ ノ J ベ ス でモデル化 し て ォ ブ ジ X ク 卜 と し 、 厂 : ノ . J :が 自 然 に備 えて い る 構 、 丁 タ 、 動作 、 関係 、 機能な どの性質 をォブン X ク 卜 の特 性 と して記述する と に よ 、 シス テムで実現す さ機 能を 自 然な発想で明確化でき る  In other words, the real world is modeled on a Γmono J-based model, and is used as an objet X-cut. 厂 ノ ノ J J J 構By describing the properties such as functions as the characteristics of the Xbox X-cut, the functions realized in the system can be clarified by natural ideas.
で 、 実世界の ォブン X ク 卜 をサィ バ ―世界 { ン ピ ュ タ シス テム (単独 、 あ る い は複数の シス テム ) 上 の仮想世界 } のォブン X ク と してそのサィ バ 世界に 結合する 方法 0冊の必要性につ いて §兌明する  Then, the real world's job X is sent to the server world as a job-of-the-world {virtual world on a computer system (single or multiple systems)}. How to combine 0 need for books § Convertible
近年 、 ン ピ ュ 夕 が通信ネ ッ 卜 ―ク に よ り 相互 に 接 さ れ 、 し た ン ピ ―タ • ネ V 卜 ヮ ク 上 の仮 想世界で様々 なサ一 ビス を 供する みが成 さ れて い る ィ ン 夕 ネ ッ 卜 に代表さ れる よ に 电子メ ルや W W W の閲覧に止 ま ら ず 、 ィ ン 夕 ネ ッ 卜 電話 、 フ ァ ッ ク ス 、 放送型情報サ ビス 、 映像や立  In recent years, computers have been connected to each other by a communication network, and various services have been provided in a virtual world on a computer network. It is not limited to electronic mail and WWW browsing as typified by the information provided by the Internet, but also the Internet, telephone, fax, broadcasting-type information services, Video and standing
曰 尸 の配信 、 通信事業や放 送事業 、 更に は電子商取引な どの よ う にネ 卜 フ ク 上 の世界で は様 なサ ビス が始 ま てい る  Various services have begun in the world on the net, such as the distribution of telecommunications, telecommunications business, broadcasting business, and even e-commerce.
し か し なが ら 、 の よ Ό なサ ビスで直接動かせ る も の は 、 了 夕 と してネ ッ h ヮ ク と い う 仮想世界に予め 取 り 込んでお いた も の に過ぎな い 現実世界の Γモ ノ J や Γ ヒ J が 曰 常生活 Γ環境 J で引 さ起 す様 な 出来 は 、 殆 どネ V 卜 ヮ ク に タ と して取 り 込ま れて い ない れ ら を ァルタ ィ ム に ン ピ ュ 夕 • ネ ッ 7 ク 上の仮 世界に反映する 手段は従来ほ と ん どな い と い て も よ い状 であ る However, the only things that can be directly operated with such a good service are those that have been previously incorporated into a virtual world called Neck as an evening. Things that the real world ΓMono J and ヒ Hi J say cause in everyday life ΓEnvironment J are almost always incorporated into the network. There is little or no means of reflecting these to the temporary world on the network.
すなわ ち 現在 世界的 に期待 さ れてい る ネ V 卜 ヮ ― ク を活用 し たュ ビキ 夕 スサ ビス と は 曰 常空間 の情報 化であ る と 口 われなが ら も ネ ッ 卜 7 ク を活用 し た 曰 々 の 曰 常生活空間 の情報化はま だ取 Ό 残さ れて い る 状 でめ る  In other words, Ubiquitous services utilizing the network, which is currently expected worldwide, are said to be informationization of ordinary space. The information of ordinary living space has been left as it is.
例え ば 家庭内 の資産や重要 類の所在探索 冷蔵庫 の 中 の食 の鮮度 貝味期限 在庫管理 老人の健康管 理 と介口; ¾補助 留守宅のセ キ テ ィ 管'理 と 視 常時健康モ 夕 ン グ シ 3 ッ ピ ン グモ ル内で の購買 者の ,購買行動 卜 ラ ッ キ ン グ と ダィ ナ ッ ク なマ ケテ ィ ン グな ど極め て大さな潜在的な ビ ジネス巿場があ る が 未 1开]拓な ま ま でめ る  For example, searching for the location of assets and important items in the home Freshness of food in the refrigerator Shellfish expiration date Inventory management Health care and care for the elderly; ¾Auxiliary care and security at home Evening 3 The potential behavior of buyers within the shopping mall, such as purchasing behavior tracking and dynamic marketing, is extremely large. There is a place, but not yet 1 开]
の よ なサ ビス を実現する に は 我 が実際 に観 窣 してい る か の よ う に ン ピ . 夕 が実世界の ど の ォブ  In order to realize such a service, it is as if you are actually watching it.
 Table
ン X ク が何時 何処で どんな状 で い る か を常 に 識 し そ のき口' 識結果が現実世界 と写像の 関係 に あ る 仮 世界の 識モ了ル変化に ァル夕 ィ ム で反映する 仕組み を確 す る と が不可欠で あ る Always knows when, where, and what the shape of the link is and how it can be interpreted.The result of the knowledge is a change in the knowledge of the virtual world, which has a relationship between the real world and the mapping. It is essential to establish a mechanism to reflect
換 口 す る と ィ ベ ン の形 を と つ て 実世界の ォブン ェ ク 卜 の状 変化が仮想世界のき 識モ了ル を構成す る ォ ブン ェ ク 卜 の プ口 ティ の変化 に U ァルタ ィ ムで反映す る仕組み すなわ ち 実世界のォブン X ク 卜 を ン ピ ュ 2003/015019 In other words, the change in the shape of an object in the real world, taking the form of an event, changes the shape of the object in the object that constitutes the knowledge of the virtual world. The mechanism to reflect in the program, that is, the X-cut of the real world is compiled. 2003/015019
4 夕 上のサィ バ 世界に ァル夕 ィ ムで反映 (結合) さ せる方法の確 が待望 されて いた 4 There was a long-awaited need for a way to reflect (merge) the world in the evening in the evening.
の う な実世界 と ン ピ ュ タ 上の仮想世界で あ る サィ バ ―世界のォブジ ク 卜 を Π する方法の第 1 の従 来技術の代表 と し て C a m b r i d g e 大学の S e n t i e n t c O m P u t i n g の例があ る S e n t i € n t C 0 m P u t i n g は ン ピ ュ 夕 • ネ v 卜 y ク • シス テム が実世界を感 じ る と で強化で る と い 手段 と し て定義さ れる セ ンサ群 と m 計測は 、 実 世界のォブジ X ク 卜 であ る 厂 ヒ 卜 J Γモ ノ J につ いて の 場所 その特定 性質 を ァ プ U ケ シ ン • ソ フ 卜 ゥ ェ ァ に提供す る と で 例 え ば 曰 常の生活 is間 の環境モ ァルを維持す る た め に使われる  Such a real world and a virtual world on a computer such as a computer-a representative of the first conventional technology of how to observe the world's objects is the Sentientc OmP of Cambridge University. Sent € nt C 0 m P uting, which has examples of uting, is defined as a means that the system can be enhanced by feeling the real world. The sensor group and m-measurement provide the location of the real world objet X-cut, Factory Hit J-Mono J, and its specific properties to the App U-Cashin software. So, for example, it is used to maintain the environmental morale between normal life is
先ず 、 実世界ォブン X ク 卜 の位置 とその識別 I D を検 出する と が出発 占 と な る ため 立  First of all, detecting the position of the real world obn X cut and its identification ID is a starting occupation, so that it becomes a starting occupation.
曰 波 を使つ た位置特 定システム を採用 し てい る 1 0 0 0 平米の ピル内で、 約 3 c m の位置 度でォブジェ ク 卜 の位置 を特定す る た め 辺 1 • 2 m の グ U ッ に 1 個の 立  A 100-meter square pill is used to specify the position of the object at a position of about 3 cm in a 100-square-meter pill that employs a wave-based location system. One stand per unit
曰 波セ ンサ を 7 Says wave sensor 7
2 0 台天井 に埋め込んで い る ォブジ ク に付帯する 長 さ 8 c m のァバィ ス は電波送受信機 と超立 20 An 8 cm long device attached to the object embedded in the ceiling is a
曰 波発信器 を 内蔵 してあ Ό 識別 I D が割 振 ら れて い る 中央 Π ン It has a built-in wave transmitter. 中央 Central pin to which identification IDs are assigned
P ラ か ら 電波チ ャ ネルでその識別 I D を运 り 冋時 に天井の 立 The identification ID can be found on the radio channel from the P
曰 波セ ンサネ y 卜 ヮ ク の各力 ゥ ン 夕 を リ セ ッ 卜 する 方 白 分の I D を電波で受 け取つ たァパィ ス は超 曰 波の パルス を発信 し 天井のセ ンサの い く つ 5 かがそれを受信 し て 伝 延時間 の差か ら 二角法 に よ 位置を算出する システム全体は中央 ン 卜 D ―ラ や 超立 The sensors that reset the sunset are the ones that receive the ID of the white waves by radio waves.The apulse that sends the pulse of the supersonic waves sends out the sensor on the ceiling. Shoes 5 receives it and calculates the position by the diagonal method based on the difference in propagation time.
曰 波セ ンサネ V 卜 ヮ ―ク を制御す る ン Π ラ を含 め て夕 ィ ン グク ッ ク に よ り 同期 して動作 して い る れに よ り 電波 に よ る識別 I D 送信時 占か ら あ る /@ 曰 波セ ンサが 曰 波の パルス を検知 し た時 占 ま で の時 間差を算出する根拠 を与えて い る の シス テムで ·» 母 秒 7 5 個の 才ブジ ェ ク をき口' 識 して 位置を特定で さ る と してい る  It operates in synchronization with the evening cook, including the controller that controls the laser sensor V-talk, so that it is occupied when transmitting the identification ID by radio wave. There is a system that provides a basis for calculating the time difference between when the wave sensor detects the pulse of the wave and when the wave sensor detects the pulse. To identify the location
のセ ノサシス テム に分散ォ ブン X ク 指向モ丁ルで ビル内の全ての Γ ヒ 卜 J を含むォ ブン X ク h の位置 と U ソ ―ス タ をィ ンテ グ レ し ヒ に 然に感 じ ら れる ォブジ X ク 卜 間 の空間的相 関関係 を ァ プ V ケ シ ョ ン • ソ フ 卜 ゥ ェァ に士-日示する と で 抽象化構成で さ る 空間モ 夕 ン グシス テム と な つ て い る 各ォブンェ ク 卜 の位置 と 状能丁 夕 は C O R B A ( C o m m 0 n o b j e a t R e Q u e s t B r o k e r A r c h i t e c t U r e ) のォブン X ク 卜 セ ッ b で表現 さ れる In the sensor system, the location of the location X and the location of the location H including the location J and the source of the U source in the building are integrated by a distributed X-directional module, and the U source is sensed naturally. The spatial correlation between the objects and the X-cuts is shown to the application V software. The location of each object and the status of each object are represented by the X-box X of CORBA (Comm 0 nobjeat R e Quest Broker A rchitect U re).
C o R B A は分散ォ ブン X ク 卜 シス テム を実現する た め に必要 と な る ォブジ X ク 指向ネ ヅ 卜 7 ク 基盤の標準 で あ る 例 え ば 実世界の各ォブン X ク 卜 に対 して CThe Co RBA is a standard for network-based networking that is required to realize a distributed network-based X-box system. Then C
〇 R B A の ォブン ク 卜 が対応す る 4 0 全ホ Ό のォブジ4 R B A's object corresponds to 40 0 all objects
X ク 卜 の種類があ Ό 例え ば 才 フ ィ ス の ヒ h パ ソ コ ン クス 力 メ ラ プ ン夕 m piな ど の実ォブジ ェ ク h に対 して C 0 R B A のォブジェ ク 卜 が対応 し 、 15019 The type of X-cut is similar.For example, the object of C0 RBA for real object h, such as the h-person's personal computer power, m-pi, mpi, etc. Correspondingly , 15019
6 実世界のォブン X ク 卜 の現在の プ パティ を も ち 、 実世 6 With the current properties of the real world
、ゝ  , ゝ
界のォブン X ク 卜 の制御ィ ン夕 フ ェィ ス と な る 例え ば 、 プ U ンタ ―は 、 それに対応する プ リ ン夕 ォブン ェ ク 卜 を経由 して 、 ァ プ ケ ―シ 3 ン • ソ フ ゥ ェ ァ が実 際の プ U ン タ 一 を作動 さ せる Ό した水 z的な C 0 RFor example, if the interface is the control interface for the world's Xbox, the printer will be connected to the corresponding application via the corresponding application box. • The software activates the actual printer.
B A のォブン X ク 卜 の全セ ッ h がァ プ ケ一 シ ョ ン • ソ フ 卜 クェ ァか ら見 る 世界モ Tルを形成する こ のォブ ヽ■;« All of the X X cuts in B A form a world model viewed from the application / software ォ; «
ン X ク 白 体が 卜 ラ ンザク シ 3 ン 、 シス テム ダゥ ン時の 代替処理 、 セ V シ 3 ン管理 ィ ベ ン 分散 、 め る い は大 規模な分散シ ス テ ム の陰に あ る多 < の項 目 の面倒 を見て 、 ァ プ ケ一 シ 3 ン に単一の プ 口 グ ラ ン グィ ン夕 一 フ ェ ィ ス を 供 し て い る X X white body is in the shadow of transactions, alternative processing during system downtime, security management, distribution of vanes, or large-scale distributed systems. To take care of the items in the list, we provide a single entrance to the opening case for the application.
の シス テム は超立  System is super erect
曰 波セ ンサ群やセ ンサ制御コ ン 卜 口 ラ な ど を天井や床な ど に埋め込み 、 シス テム口又 口 1 が必 要なため 、 大さなォ フ ィ ス ビルや病院な ど 、 移動性の高 い 人々 が情報の生成 、 情報への ァ ク セス 、 異種の機器や 相互の 3 ミ 一ュ ケ一 シ 3 ン を交わす必要の あ る 状況への 適用 で効果を発揮す る  The sensor group and sensor control entrance are embedded in the ceiling and floor, and the system entrance or entrance 1 is required, so large office buildings, hospitals, etc. Works best for mobile people who generate information, access information, and in situations where they need to interact with disparate devices and with each other.
ま た 第 2 の従来技 と し ては モ ノ の管理 と い う 視  The second conventional technique is the management of mono.
"占、ヽか ら 、 実世界の 厂モ ノ J と ネ ッ 卜 ―ク を結びつ け る 技術 と し て < R F 一 I D 夕 グ >があ る R F ― I D ( R a d i o F r e Q u e n C y I d e n t i f i c a t i o n ) タ グは小 さ な ハ、、線通信 I C を 内蔵 してお り 、 基本機能はメ モ リ に格納 し た I D 番号等 を発信する だけ であ る 主 に物流管理 を 的 と し てお 、 管理対象ォブ ジ X ク 卜 に付 さ せる と 非接触でその識別 I D を U ダ で む こ と がでさ る ( N I K K E I Ε L E C T R o N"RF-ID (Radio Fre Quen C) is a technology that connects the real-world factory MONO J and the network. y I dentification) Tag is small, and has a built-in line communication IC, and the basic function is only to transmit the ID number etc. stored in the memory.Mainly for logistics management. The managed object When attached to a X-cut, the identification ID can be obtained without contact in a non-contact manner (NIKKEI Ε LECTR o N
I C S 2 0 0 2 2 • 2 5 p Ρ . 1 0 9 - 1 3 : 7 ' ) し か し、 現実世界で起きてい る こ と を リ ァル夕 ィ ム でネ ッ ヮ ク 上の仮想世界に反映さ せ 、 様々 なサ ビス を 提供する ため に は 、 ど の ォフ ジ エ ク ト が 、 何時 、 何処で どんな状態でい る か を常 に πθ し てお く 機能が必 で あ に、 第 3 の従来技術 と し て、 赤外発光する 実世界の ォブジェ ク h を赤外セ ンサや赤外力 メ ラ し き wi picす る 技 があ る 。 れは 、 シ ン と I D を 同時 に取得可能な ィ メ ンセ ンサ (松下伸行他著 「 I D C a m : シ ン と I D を 時に取ィ守可能なィ メ 一 ジセ ンサ」 電子情報通 信学会 . 信学技報 、 I T 2 0 0 1 ― 9 2 , P P - 1 0 5ICS 2 0 2 2 • 25 p Ρ. 109-13: 7 ') However, what is happening in the real world is a virtual world on the net at the real time. In order to provide a variety of services, it is necessary to always have a function that always keeps πθ as to which object is when, where, and in what state. As a third conventional technique, there is a technique of wi picting a real-world object h that emits infrared light by using an infrared sensor or an infrared force camera. This is a sensor that can acquire both a shin and an ID simultaneously (Nobuyuki Matsushita et al., “IDC am: An image sensor that can sometimes protect a shin and an ID,” IEICE. Academic report, IT 2 0 1 ― 9 2, PP-1 0 5
― 1 3 7 ) か ら な る I D 力 メ ラ を使用 し 、 現実の空 間 と 仮想 の空間 を U ン ク する 狙いで開発 さ れ 、 デン夕 ル ビ ォ力 メ ラ に写る 複数の被写体の I D A き 識でさ る シス テ ム で あ る ( N I K K E I E L Ε C T R O N I C S 2― 1 3 7) Developed with the aim of linking the real space and the virtual space by using the ID force camera consisting of It is a system that can recognize IDA (NIKKEIEL Ε CTRONICS 2
0 0 2 . 4 • 8 P • 3 5 「 L Ε D が仮想空間の入 り 口 ァ ン 力 メ で光 を検知 」 先ず、 実 ·世界 の ォ ブ ン X ク 卜0 0 2. 4 • 8 P • 3 5 “LΕD detects light by inputting force into the virtual space” First, the real X-cut of the real world
(被写体) に ビ Π ン と 呼ばれる マィ n ンで点滅が制御 さ れ る発光ダイ ォ ドヽ ( L E D ) を搭載 、 I D を割 Ό 当 て る 。 ビ ンはその I D に基づいて 占滅を繰 り 返す A light-emitting diode (LED), whose blinking is controlled by a so-called bean, is mounted on the (subject), and the ID is assigned. Bin repeats extinction based on its ID
_  _
し の シス テム用 に独 自 に 開発 さ れた丁 ンタ ル ビ了ォ力 メ ラ ( I D 力 メ ラ ) でその点滅パ 夕 ン を検知 • 解析 し て I D を する し た I D は被写体の画像に ねて 表示する 赤外線 リ モ ン に例え てみれば ビ ンは 赤外線 u モ ンの送信機で あ り 、 I D 力 メ ラ は リ モ コ ン 受信機 を ァ レィ 状に配置 し たア レイ セ ンサ ( C M 〇 S ィ メ ンセ ンサ ) で あ る I D カ メ ラ は の力 メ ラ と し て シ ―ン を 像す る (シ ンモー ド ) だけでな < ビ コ ン を 像 し た画像上の座標 と ビー コ ンが送信す る I D ァ 夕 を 組に し て 出力 す る ( I D モ ー - ド ) I D モ ド で は I D 力 メ ラ は 1 2 k H z のサ ン プ ングを 2 0 0 回繰 Ό 返 し ビ ― 3 ンが送信する キ ヤ リ ァ周波数 4 k H z の 8 ビ ッ 卜 の I D を 1 9 2 X 1 2 4 画素全て に お い てThe blinking pattern is detected and analyzed by a custom-built-in power meter (ID force mailer) developed uniquely for the new system. If you compare the ID to the infrared remote that displays the image of the subject in the image, the bin is an infrared umon transmitter, and the ID input camera is a remote control receiver. The ID camera, which is an array sensor (CM 〇 S sensor) arranged in an array, can only image the scene as a force camera (sin mode). <The coordinates on the image of the icon and the ID key sent by the beacon are output as a set (ID mode-ID). Repeat the sampling of kHz at 200 times, and the carrier frequency transmitted by the bin 3 is 4 The ID of 8 bits at 4 kHz is all 19 2 X 1 2 4 pixels In
T 3 ドヽ し 1 5 f Ρ s で I D 画像 を作成する の ICreate 3D image at 15 f Ρ s
D を介 し てサィ バ 世界の (イ ン タ 一ネ ッ 卜 上の ) 情報 と U ン ク さ せる こ とが可能な ので、 ュ ザはその I D を 手がか り にォブン ク 卜 に関する 情報を入手する と が で き る I D の ビ ッ 数は 8 ビ ッ ト であ Ό れを 4 kIt is possible to link to the information (on the internet) of the server world via D, so that the user can use the ID to obtain information about the object The number of ID bits that can be obtained is 8 bits, which is 4 k
H z のキ ャ リ ァでマ ンチ X ス タ ー符号化 し 2 2 ビ ッ 卜 のパケ 卜 単位で I D 丁 ―夕 を送受信す る Performs X-star coding with a carrier of Hz and transmits / receives the ID-d in the unit of 22-bit packets.
第 4 の従来技 % と し て 2 次元マ ト U V ク ス ― ド を 利用 し た 拡張現 ,実感 の 構成手法 ( c y b e r C o d e ) が あ る ( J u n R e k i m o t o Y u j i As a fourth conventional technique%, there is a construction method (cyberrCode) of augmented reality and realism using a two-dimensional mat UV index (JunRekimotooYujii).
A y a t s u k a 著 厂 C y b e r C o d e • D e s i g n i n g A u g υ L m e n t e d R e a 1 i t yA y a t s u k a Written by the factory C y b e r C o d e • D e s i g n i n g A u g υ L m e n t e d R e a 1 i t y
E n V i r o n m e 11 \ t : s w i t h V i s u a 1E n V i r o n m e 11 \ t: s w i t h V i s u a 1
T a g s J ) れは 実世界のォブジ ク 卜 の表面 に 2 次兀マ 卜 ッ ク ス 3 ド、 を貼 り 付け れを ビァォ力 メ ラ で撮影する 撮旦 画像の処理 に よ つ て 卜 ッ ク ス を 。心識する れに り ビ丁ォ力 メ ラ 映像で見 て い る対象か ら き 3? T ags J) on the surface of a real-world object. The next vault matrix 3 is attached, and the video is taken with a video camera. From the subject you see on the video 3?
o識 し.た 卜 ッ ク ス ドヽ を介 し て ネ ッ 卜 7 ―ク 上の関 情報に ァ ク セ ス し た り 仮想世界 のォブジ X ク 卜 を展開する と がでさ る  You can access the related information on the network 7-x through the docs box and develop the virtual world's object X-X.
また 第 5 の従来技術 と して 実ォブン X ク 卜 を特別 な ン夕 ル ビァォ力 メ ラ で撮影 し ク ッ ク 可能 と し た い対象が写 て い る 領域 と その リ ン ク 先 U R L や撮影 時刻な ど 関 する 情報 |p]時に取得 記録する 士 Θ  As a fifth prior art, a real X-cut is photographed with a special video camera, and the area where the object that can be cooked is shown and its link destination URL, Information about shooting time, etc. |
案が あ る ( 菅原俊治他著 「 ク リ ツ 力 ブルオ ブ ジ ェ ク ト の 撮 影」, W I S S 2 0 0 1 , p p . 1 6 7 — 1 7 2 )。 こ れ も ォブンェ ク 卜 と仮相 iii 世界の 関 する 情報 と を '1! 口 す る 方法删 の提案で あ る 実ォブジ X ク 卜 に赤外付 子 を埋め込み れ を赤外領域に咸度の あ る複数台の CThere is a plan (Shunji Sugawara et al., “Shooting a Critical Power Bulloject”, WISS 201, pp. 167-17-172). This is also a proposal for a method of '1 ! ' Sharing obnects and temporary phases iii. Information on the world. Multiple Cs with
C D 力 メ ラ で撮影す る 複数の実ォブジ ェ ク 卜 を識別す る 手段は埋め込んだ赤外付帯 子の波長差 を利用 し て い る の 巨 的のた め 発光中心波長が 8 0 0 η m 8 2The method of identifying multiple real objects photographed with a CD force camera uses the wavelength difference of the embedded infrared accessory, so the emission center wavelength is 800 η m 8 2
5 n m 8 5 0 n m 8 7 5 n m 9 0 0 η mの赤外付 m素子 と感知可能波長領域の異な る ( 中心波長が 8 0 0 n m 8 5 0 n m 9 0 0 n mの赤外パス フ ィ ルタ を C5 nm 850 nm 8 7 5 nm 9 0 0 η m with infrared m element and the permissible wavelength range are different (infrared pass filter with center wavelength of 800 nm 850 nm 900 nm Filter to C
C D 力 メ ラ に衣着 し て い る ) C C D 力 メ ラ を 3 台準備 し て い る れに り 区別で さ る 実ォブン X ク 卜 の数は 最大 5 個であ る (They are dressed in the C D force camera.) The number of real X-cuts that can be distinguished from each other by preparing three C C D force cameras is a maximum of 5.
更 に 6 の従来技術 と し て 5 個の L Ε D で構成さ れる B a 1 1 o o n T a g と呼ぶタ グを実ォブジ 工 ク 卜 に取 り 付け ビデオカ メ ラ で撮影する方法があ る ( 冃 木亘著 厂力 メ ラ で読み と る 赤外線タ グ と そ の 応用 」 WIn addition, six conventional technologies consist of five L Ε D There is a method that attaches a tag called Ba11oonTag to a real object factory and shoots it with a video camera (Wataru Takaki, infrared tag read by a factory camera and its tag). Application of W
I S S 2 0 0 0 P P . 1 3 1 ― 1 3 6 )。 そ し て の ビ τォ力 メ ラ の映像 を解析 して 、 タ グ情報の読み取 り と 映像中 の位置計算 を行 う B a 1 1 0 o n T a g のI S S 2 0 0 P P. 13 1-13 6). The video of the camera is analyzed, the tag information is read, and the position in the video is calculated.
5 個の L E D の 内 、 周辺部の 4 個は同 じ タ イ ミ ン グで 占 灯 と消灯を繰 り 返 し 、 ク ロ ッ ク 信号の役割 を果た し 中 央の L E D はク ッ ク 信号の点滅か ら 1 / 4 位相遅れて 点滅 し ァ ―夕 信号を送る 力 メ ラ が と ら え た画像は 先ず明る い画素だ け抜き 出 さ れる 。 次に こ の過程で抽出 さ れた画素 を領域結合 して 領域の面積を計算す る 面 積が一定値以上の領域は B a 1 1 o o n T a g 光源で はな い と判定 して 除去する こ の除去は 白 い壁の 明 る い 部分や蛍光灯光源そ の も のな どを判定対象か ら 取 り 除 < ため に行 う Of the five LEDs, the four at the periphery repeatedly occupy and illuminate at the same timing, functioning as a clock signal, and the central LED is the clock. The signal blinks 1/4 phase behind the signal blinking. The image captured by the power camera that sends the evening signal is first extracted only from bright pixels. Next, the pixels extracted in this process are area-combined and the area of the area is calculated.Area with an area equal to or greater than a certain value is determined to be not a Ba11oonTag light source and removed. This removal is performed to remove bright parts of white walls, fluorescent light sources, etc. from the judgment target.
次 に の様に し て選択さ れた複数の領域の 中で ク 口 ッ ク 信 と推定でき る 組み合わせを探索す る 。 B a 1 1 ο o n T a g の ク ロ ッ ク 信 は画像中でほ ぼひ し形の領 域 と して写 る ので 4 領域の全ての組み合わせの 中で 4 頂 点のなす角 e に制限 を加え る こ と で ク ロ ッ ク 信号源 を選 び出す と がで含 る 。 ク Π ヽリ ク 信号源のひ し形が選ばれ る と 直近の映像 フ レームでひ し形があ っ た領域 を対応 付け B a 1 1 o o n T a g が ど の よ う に移動 し て い る のか を解析する 15019 Next, a combination that can be presumed to be a quick signal is searched for in a plurality of areas selected as follows. Since the clock signal of B a 1 ο on Tag appears as a roughly diamond-shaped area in the image, it is limited to the angle e formed by the four vertices in all combinations of the four areas. The selection of the clock signal source by adding When the diamond of the signal source is selected, the area where the diamond was located in the most recent video frame is mapped. How the Ba1 1 oon Tag moves Analyze 15019
11 次 に ク ロ ッ ク 信号が点灯 し た際、 あ る い は消灯 し た際 に は、 そのひ し形の 中央付近に L E D が発見でき る か否 か を調査 し 、 データ ビ ッ ト と して 「 1 」 又は 「 0 」 を読 み取る コ ン ピ ュ ータ の フ レーム処理速度が 1 0 H z で あ Ό ク ロ ッ ク と デー タ の位相差 を考慮す る と送信 は 5 H Z 以下の任意速度を と り 得る 。 そ こ で 夕 グの送 信速度を 4 H z と して レ る 。  11 When the clock signal is turned on or off next time, investigate whether an LED can be found near the center of the diamond, and check the data bit. The frame processing speed of the computer that reads “1” or “0” is 10 Hz, and if the phase difference between clock and data is taken into account, the transmission will be 5 Any speed below HZ is possible. Then, the transmission speed of the evening is set to 4 Hz.
第 7 の従来技術 と し て 、 米国、 カ リ フ オ ル ァ大学バ ク レ 校で開発が進め ら れてい る " S m a r t D u A seventh conventional technology is being developed at the University of California, Bakule, USA. "SmartDu
S t と 呼ぶ超小型の 無線セ ンサ ノ ー - ド があ る (( i )There is an ultra-small wireless sensor node called St ((i)
B r e t t W a r n e k e 他著 「 S m a r t D u s t • C o m m u n i . c a t i n g w i t h aB r e t t W a r n e k e et al., “Sm a r t D u s t • C o m m u n i. C a t i n g w i t h a
C u b i c 一 M i 1 1 i . m e t e r C o m P u t e r J I E E E , C o m p u t e r , J a n • 2 0C u b i c i M i 1 1 i .m e t e r C o m P u t e r J I E E E, C o m p u t e r, J a n • 20
0 1 ( i [i ) J o s e p M . K a h n 他著 厂 E m e r g i n g C h a 1 1 e n g e s : M o b i 1 e N e t w o r k i n g f o r S m a r t D u s t 」 , 2 0 0 0 K I C S ) こ こ で検討 し て い る 線通信技術は光通信技術であ り 、 基地局 の レ ザ 光源か ら 届 いた光 を無線セ ンサ ノ ー ド 上 に形成 し た超小 型反射 ラ ーで入射 した光軸 と平行な方向 に戻すか 、 外 すか に つ て、 光信号 と して返す方式 を採用 して い る 基地局 に設置 し た レーザ一か ら 、 無線セ ンサ ノ ド群 が散在 し て い る 領域に レ ザ一 · ビーム を照射す る の 際 上記の照射光 は、 無線セ ンサ ノ — ド を ス リ プモ ド、 か ら 起 する マ ン ド、 やセ ン シ ン グ情報を 求す る マ ン な ど を含む 夕 を送る ため に変調す る と がでさ る 方 線セ ンサ ノ ド、 は変調 さ れて い な い ビ ム を受けた時は 超小型反射 ラ を動か し て 反 射光 を基地局 に向 けて平行に すか 外すか に つ て 反射 ビ ―ム を変 P周する と に 0 基地局 に了 ―タ を返 す と ができ る ポィ ン 卜 は 小型反射 ラ が 方 体 の コ ―ナ 部の 内側 に形成さ れる 互い に垂直な 3 面 を 反射鏡 と してい る と であ る 0 1 (i [i) Josep M. Kahn et al., Factory E merging Cha 1 1 enges: Mobi 1 e Networking for Smart Dust ", 2 0 0 0 KICS) Line communication technology is an optical communication technology in which light arriving from a laser light source at a base station is incident on a wireless sensor node in a direction parallel to the optical axis that is incident on the ultra-small reflective mirror. From the laser installed at the base station that uses the method of returning or removing it as an optical signal from the laser installed at the base station, the laser is sent to the area where the wireless sensor nodes are scattered. · When irradiating the beam, the above irradiation light will cause the wireless sensor node to The normal sensor node, which can be modulated to send the evening, contains the command that is coming from it, the command that is coming from it, and the command that requests the sensing information. When a beam that is not received is received, the microminiature reflector is moved to change the reflected beam toward or away from the base station in parallel to the base station. The point that can be returned to the station is that the small reflector is a mirror on three mutually perpendicular surfaces formed inside the corner of the body.
の 3 面反射鏡 に入射 し た光 ビ ム は入射 し た光軸 と 平行に反射さ れる た め 基本的に特別な ァ ラ ィ メ ン 卜 が 無 < て も 各 線セ ンサ ノ ド、 か ら 反射さ れてさ た反射 ビ ム は 基地局 に戻 ゥ て < る 予め セ ンサノ ド、 群 が分布 して い る 全領域か ら の反射 ビ ムが C C D ィ メ ンセ ンサァ レィ 上 に結像する に レ ンズ系 を設計 して お けば 各 ノ か ら の変調 ビ ム はその空間位置に対 応 し て 上記セ ンサァ レィ の上の特定位置の ピ ク セルで 受信する と がでさ る  Since the light beam incident on the three-sided reflecting mirror is reflected in parallel with the incident optical axis, it is basically possible to use each line sensor even if there is no special argument. The reflected beam reflected from the camera returns to the base station, and the reflected beam from the entire area where the sensor nodes and groups are distributed is imaged on the CCD sensor array. Therefore, if a lens system is designed, the modulated beam from each node can be received at a pixel at a specific position on the sensor array corresponding to the spatial position.
(=1 い換え る と 空間分割多重の光通信は実現でさ る 。 空間分解 ^匕  (= 1 In other words, space division multiplexing optical communication can be realized.
H匕は c M 〇 S ィ メ ジセ ンサの ピ ク セルァ レィ の数 に よ る が 1 7 m角 の X U ァ に ノ が分 し て い る と き に 2 5 6 X 2 5 6 の ピ ク セルァ レィ で受光 し た 合 各 ピ ク セルは 6 6 C m 2 の空間領域に対応する 。 夕 バ の箱位の距離だけ離れて いれば 別 の ノ ド、 カゝ ら の t=I  According to the number of pixels in the C M 〇S image sensor, the size of the Hd is 25 6 X 25 6 when the XU in a 17 m square is divided into two. When light is received at the cellular array, each pixel corresponds to a spatial area of 66 cm 2. If it is only the distance of the box of the evening, another node, Ka's t = I
信 と して口' でさ る ま た 信号速度は C C D セ ンサの フ レ一ム に依存する と にな る The signal speed is CCD. Depends on the sensor frame
上述 し た第 1 の 技術は、 ホ ム 商店 狭 い ォ フ イ ス な ど の 日 常生 間へ適用する 観 占か ら は 埋め込 付さ位 2.  The first technology mentioned above is embedded in the horoscopes that are applied to the daily life of home shops and narrow offices.2.
み工事が必要 と な 費.用対効果の観 占か ら 困難で あ る ま た 、 適用する 空 の広 さ 2 次元平面形状な ど に よ Expenses that require construction work, which are difficult due to cost-effectiveness, and the size of the applicable sky, such as a two-dimensional planar shape
£1つ  £ 1
て、 超音波セ ンサ の酉己置方法や配置間隔を変え 二角 術特本識すがかきををと By changing the method of positioning the ultrasonic sensors and the spacing between them, the diagonal technique
法で位置を 同定す 5 た め に シス テム全体を調整す る 必要 が生ずる し て 般人肯はヒヒ こ の シス テム を購入 し て 自 ら が取 り け 配 整、 維持 をす る の は到底困難 であ る It is necessary to adjust the whole system in order to identify the position by the method, and it is not necessary for the general public to purchase this system and to arrange, maintain, and maintain it. Absolutely difficult
がたの I  I
ま た 第 の従来技術の R F D タ目 グを実ォ ブン  Also, the RFD tag of the second prior art
匕匕  Dagger
ク 卜 に付帯 せて も 、 特定の 別 D を付帯 さ せたォ ジ X ク 卜 の 置を特定する 能が無 い。 位置 を特定す ため に は 用 U ダ 近さ せて捜す しかな い し も 波規 の た め 曰 にお ける 通信距離は 々 2 m で あ る た め、 任意の 別 I D を付 し ォブジ X ク が何時、 何処に あ る か リ ァル夕 ィ ム で する シス ム を構築する こ と はで な い 方 N T T は屋内 に いて 1 0 m程度の 可 な is 1§ を も つ R F ― D 夕 グ と複数の基地局 を使 D 発信時に各基 局が受信 し た電波強 ら
Figure imgf000015_0001
し R F 一 I D 夕 グ 位置 を 同定する 技術 発 した シス ム では 3
Even if it is attached to a cut, there is no ability to specify the location of the X-cut to which a specific different D is attached. In order to specify the location, it is necessary to search close to the U-da, but since the communication distance is 2 m because of the wave rule, any other ID is assigned to the object. If it is not possible to build a system that uses a real-time system to determine when and where the network is located, NTT is indoors and has an is 1 of about 10 m. In the evening and when using multiple base stations, D
Figure imgf000015_0001
In the system that issued the technology to identify the RF ID
0 M H z 帯の微弱無 用 いて い る 位售 の特定 m は ± 2 m程度で あ る た の部 の あ る ォ ジ ェ ク 卜 の位置を特定す る ま での精度が無い 即ち 位 s に 関 し ては どの部 に あ る か を特定する 程度の位 Λ精 度 しかな い に 広範囲 に あ る R F ― I D の位置を き 識す る の は難 し い 基地局か ら 近い位置に あ る R F -The specified m of the weakly used position in the 0 MHz band is about ± 2 m, but there is no accuracy in specifying the position of the object with the other part. Regarding s, it is only possible to identify where it is located.RF is too wide to be accurate, but it is difficult to know the location of the ID. RF in
I D の影響で < に あ る R F ― I D の信号を受信す る のが困 であ る か ら であ る o R due to the effect of ID-R-It is difficult to receive the signal of ID o
更 に 第 3 の従来技術では ビ Π ン はその I D に基 づいて 占滅を繰 Ό 返 し 受信側シス テム と 同期 さ せな い 方法を採用 し て い る 。 そのた 、 ビー コ ンは何時 I D 力 メ ラ で撮影する かわか ら な い で、 常 に点滅を繰 り 返 し て い る 必要があ る 。 L E D の 費電力 は小さ く な い ので、 ビ ン を小型化 して 実
Figure imgf000016_0001
境の め ら る ォブン ェ ク 卜 に貼 り 付ける 用途に は向かな い 電力 的で 間欠動 作 を さ せた場合 には I D 力 メ ラ でき 識 さ れない可能性 が出て < る o ま た 調 同期 (非同期方式 文子 の前後 に ス 夕 ― 卜 ビ ッ 卜 と ス 卜 ッ プ ビ ッ を挿入 ) 等の ァルゴ ズム が必要にな る た め 複数同時発光 と な る と 力 メ ラ 側の処理 が大幅 に増えて 時間がかか り 過ぎる た め動 体の 識が困難であ る
Further, the third conventional technique employs a method in which a vein is repeatedly occupied based on its ID and is not synchronized with a receiving system. In addition, the beacon does not know when to shoot with the ID power camera, and must constantly flash. Since the power consumption of the LED is not small, the size of the bin can be reduced
Figure imgf000016_0001
It is not suitable for use in applications that attach to observables that are not environmentally friendly. If intermittent operation is performed due to electric power, there is a possibility that the ID will not be able to be recognized due to the ID force. In this case, an algorithm such as key synchronization (inserting a stop bit and a stop bit before and after the asynchronous method) is required. It is difficult to recognize the moving object because the processing is greatly increased and it takes too much time
第 4 の従来技術 に い て ビンュ ァル ― を用 いて 実 境で シス テム を動作 さ せ る た め に は < か ら .で も 識可能 とする た め 在す る実ォブン ェ ク 卜 の表面に 巨大な ド を貼 り 付けてお < 必要が る の た め、 識可能な実ォブン X ク 卜 の形状に制限がつ いて い る o ま た 斜め の角度か ら や 近傍 と M方の両方 に 在する In the fourth prior art, in order to operate a system in a real environment using a binar, it is necessary to use an existing object in order to be able to understand even from <to. Because a huge gutter is attached to the surface, the shape of the real X-cut can be recognized because it is necessary. <O> Also, from an oblique angle or near the M Be in both
2 次元マ 卜 U ッ ク ス Π ド、 を見分け る た め には 画像 度 と画 f象処理能力 の大幅な向上が必 と な る ため 境下で 在する 1 0 0 個程度のォ ブジ X ク 卜 をき 。心識 し た り 動 < 才ブン X ク 卜 の 心識が困難であ る 2D mats Since there is a need to greatly improve the degree of image processing and the image processing capacity, about 100 obscure X-cuts are required. It is difficult to learn
ま た 第 5 の従来技 の光源の波長差 を利用 し た方法 では明 ら か に 識別可能なォブン ェ ク 数は数個程度 に 限 ら れて し ま Ό ま た 赤外 C C D 力 メ ラ の 出力 で あ る 赤外画像か ら輝度の明 る い 占 を抽出する だけの手法で め る た め 球やその反射光が赤外光源の背後に あ る と 赤外付帯素子を検出できな < な り 実 请にお いて は実用 にな ら な い  Also, in the method using the wavelength difference of the light source of the fifth conventional technique, the number of clearly identifiable objects is limited to only about several. Since it is a method that only extracts bright occupancy from the output infrared image, if the sphere or its reflected light is behind the infrared light source, the infrared incidental element cannot be detected. It is not practical in practice
更に 第 6 の従来技術の欠 占 はデ タ転送速度が遅い と であ る 受信側の シス テム と 同期せずに 占滅す る Furthermore, the occupation of the sixth prior art is occupied without synchronizing with the receiving system that has a low data transfer rate.
L E D を 通の力 メ ラ で撮影 して I D を識別する シス テ ム の ため 4 H Ζ と い う 極め て低速な丁 タ速度で し か 送信できな い 1 0 文字を送る た め に は 2 0 秒は フ レ ム 内 に い な ければな ら な い 従つ て 力 メ ラ の被写体 と な つ て い る 才プジ X ク 卜 の I D番号 を する だけでA system that identifies the ID by photographing the LED with a power camera, which can only transmit at extremely low shutter speeds, such as 4H, is required to send 10 characters. At 0 seconds, you have to be within the frame. Therefore, you only need to give the ID number of the X-Cut that is the subject of the power camera.
8 ビ ッ の場 は 2 秒要する こ の様 に き口心 速度が非 常 に低速で め る た め 動体のォプジ ェ ク 識は困 で あ る ま た 1 0 個以上の多数のォ ブジ X ク 卜 を扱 う と がでさ な い ま た Β a 1 1 0 o n Τ a g は 5 個の LThe 8-bit field takes 2 seconds, so the speed of the mouth center is very low, so it is difficult to understand the opposition of the moving object.More than 10 objects X 1 a1 1 0 on Τ ag is 5 L
E D を必要 と し 夕 グの小型化に適 さ ない Requires E D and is not suitable for downsizing
本発明 は 上記に みてな さ れた も ので その 的 と する と ろ は 実世界の才ブンェ ク に対 してサィ バ 世界を 成する 3 ン ピ ュ 夕 シス テム で実世界ォ ブン ェ ク に対応 して定 さ れるサィ バ - -世界の才ブン ェ ク を適確 に する実世界 とサィ パ - -世界のォブンェ ク 卜 結 方法を提供する と に あ る 発明 の開示 The present invention has been made in view of the above, and its main purpose is to provide a real world object with a three-chip system that forms a server world against the real world talent. DISCLOSURE OF THE INVENTION To provide a method for connecting the real world and the super-world that makes it possible to properly determine the world's genius and the world's talent.
上記 百 的 を達成す る ため の 1 の能 に係 る 本 明 は 実世界のォブジ工 ク に 関連する 実世界ォブジ ェ ク 情 報 をサィ パ 世界を構成する ン ピ ュ タ シス テム に よ き 識する た め の実世界ォブジ X ク 卜 。心識方法で め て 刖記実世界ォブン X ク に付帯さ れ 一 の識別情報が 割 り 当 て ら れた付帯 子か ら 発せ ら れた 刖記 別情報お よ び該付 素子の位置を表す位置情報を 刖 口 ン ピ ュ 夕 シス テム に よ 受信する ス テ V プ と 信 し た前記付 帯素子の識別情報お よ び位置情報 に基づいて該付 子 に対応する 実世界ォブン X ク 卜 の位置を コ ン ピ ュ 夕 シ ス テム に よ り 特定 し てき する ス テ ッ プ と を備 えて い る 。  The present invention, which relates to the ability to achieve the above-mentioned objectives, is based on the real-world object information related to the real-world object engineering, and is based on the computer system that composes the super-world. Real World Obuji X Kutto for understanding. For the sake of mind, を The identification information and the position of the element attached to the real world object X, which are issued from an accessory assigned with one identification information, are assigned. The step of receiving the position information to be represented by the opening / closing system and the identification information of the attached element and the real world object X corresponding to the element based on the position information. A step is provided to identify the position of the unit by the computer system.
上記 巨 的 を 成す る た め の 2 の 様に係 る 本 明 は、 実世界の 才ブジ ク 卜 に 関連す る 実世界ォ ブン X ク ト 情 報 をサィ バ 世界を構成す る ン ピ ュ ― 夕 シス テム に よ り き口心識する た め の実世界ォブン X ク 口' 方法であ つ て 、 The present invention according to the above-mentioned 2 for forming the above-mentioned giant is based on real world object X related information related to real world talents. -A real-world, open-minded way to learn more about the evening system.
-ヽ -ヽ
記実世界ォブジェ ク に付帯 さ れ の識別情報が 割 当 て ら れた付帯素子か ら 発せ ら れた 刖記識別情幸 お よ び該付 子の位置を表す位置情報 ¾ 刖記 ン ピ ュ 一 夕 シス テム に よ Ό 受信す る ス テ ッ プ と 、 刖 付 子が 付帯さ れてい る実世界ォブン X ク 卜 の 像を 刖記 3 ン ピ ュ 夕 システム に よ り 取得する ス テ V プ と 受信 し た 刖 記付帯 子の識別情報 よ び位置情報を 刖記取得ス テ ッ プに よ Ό 取得さ れた実世界ォブジ X ク の画像 に関連付 け る ス テ ッ プ と 関連付け ら れた 記付帯 子の識別情 報 位置情報お よ び 記実世界ォブジ X ク h の画像 に基 づい て該付帯素子に対応する実世界ォブジ ェ ク の を ン ピ ュ 夕 シス テム に よ り 特定 してき心識する ス テ ッ プと を備えて い る Location information indicating the identification information and the position of the tag attached to the real world object. The system receives the steps and the identifier Step 3 Obtain the attached image of the attached real world X-Cut by the computer system and receive it. 取得 Obtain the identification information and position information of the attached element. By step Ό Identification information of the attached band associated with the step to be associated with the acquired image of the real world object X Location information and the real world object X a step for identifying the real world object corresponding to the incidental device based on the image of h by using a computer system.
上記 巨 的 を 成する た め の第 3 の 目、 様に係 る 本発明 は、 実世界のォブンェ ク 卜 に 関 する実世界ォブンェ ク 卜 情 報 をサィ η 世界を構成す る ため の実世界ォブン X ク 卜 識衣置で め て 刖記実世界ォブン X ク 卜 に付 さ れ、 の識別情報が割 り 当 て ら れた付帯素子か ら 発せ ら れ た 記識別情報お よ び該付帯 子の位置を表す位置情報 を受信する手段 と 受信 し た前記付 素子の識別情幸艮 よび位置情報に基づいて該付 素子に対応する実世界ォ ブジ X ク 卜 の位置 を特定 し てき 。心識する手段 と を備 えて い る  The present invention, which relates to a third aspect for forming the above-mentioned hugeness, includes a real world object for constructing a real world object information about a real world object. The identification information generated by the attached element attached to the real world Xbox and assigned with the identification information, and the identification information generated by the attached element. Based on the means for receiving the position information indicating the position of the child and the received identification information of the attached element and the position information, the position of the real world object X-cut corresponding to the attached element has been specified. Have the means to know
上記 的を達成する た め の第 4 の態様に係 る本発明は、  The present invention according to a fourth aspect for achieving the above object,
へ❖  Huh
実世界のォブンェ ク 卜 に 関連する 実世界ォブジ X ク 卜 情 報 をサィ バ 世界 を構成する た め の実世界ォブン ェ ク 卜 識装置であ ゥ て 前記実世界才ブジ X ク 卜 に付帯 さ れ、A real world object X-Cut device for constructing a server world based on the real world object X information related to the real world object, which is attached to the real world talent X object. And
——- 思 の識別情報が割 り 当 て ら れた付帯素子か ら発せ ら れ た 記 別情報お よ び -a ——- Identification information and -a emitted from the attached element to which the identification information of interest is assigned.
該付帯s- 素子の位置を表す位置情報 を受信す る 手段 と 刖記付帯素子が付帯さ れて い る 実世 界ォブン 工 ク 卜 の画像を取得する 手段 と 受信 し た Iff 記 付帯 子の識別情報お よ び位置情報 を 刖記取得手段 に よ り 取 1守さ れた実世界ォブン ェ ク の画像に 関連付け る 手 段 と 関連付け ら れた 記付帯素子の識別情報 位置情 報お よ び刖記実世界ォ ブン X ク h の画像に基づい て該付 帯 子に対応する 実世界ォ ブン X ク 卜 の位置を特定 し て 刃識する 手段 と を備えて い る Position information indicating the position of the associated s-element For receiving an image of a real-world observatory with an attached element attached, and acquiring the identification information and position information of the received Iff element attached Means associated with the image of the real world object protected by the means 1 and identification information of the attached element associated with the position information and the image of the real world object X Means for identifying and identifying the position of the real world Xbox corresponding to the attachment based on the
上記 百 的を達成す る ため の第 5 の 様に係 る本発明 は、 実世界の ォブン X ク 卜 に付帯 さ れ 音 の識別情報 を有 し 前記実世界に対応する サィ バ ―世界を構成す る コ ン ピ ュ 夕 シス テム と 線通信可能な付帯素子であ つ て、 m記識別情報お よ び該付帯素子の位置を表す位置情報 を 刖記 ン ピ ュ 夕 シス テム に 向 けて送信する 送信手段 と 、 記 ン ピュ タ シス テム か ら の動作指 に応 じ て 刖 Bd 実世界ォブジェ ク 卜 の状態お よ ぴ該実世界ォブン X ク 卜 の近傍の状 の 内 の少な < と も 方 を感知 し の感知 し た実世界ォブジ ェ ク 卜 に 関する セ ン シ ン グ情報 を 刖 PC ン ピ ュ 夕 シス テム に 向 けて送信する感知手段 と 、 刖 記 ン ピ ュ 夕 シス テムか ら の動作指令 に応 じて所定の 動作を実行 し そ の動作 に 関連する 動作関連情報 を 刖 PC According to a fifth aspect of the present invention for achieving the above-mentioned objective, a server-world corresponding to the real world having sound identification information attached to a real world X-box is provided. The identification information and the positional information indicating the position of the incidental element can be communicated to the computer system by line communication to the computer system. In accordance with the transmitting means for transmitting and the operation finger from the computer system, the state of the Bd real world object and the small number of the state near the real world object X A sensing means for transmitting sensing information about the real world object which has been sensed to the PC computer system, and a memory system for detecting the real world object. Executes a predetermined operation in response to the operation command from the刖 PC for related operation information
3 ン ピ ュ 夕 シ ス テム に 向 けて送信する 動作手段 と 、 を 備えて い る Operating means for transmitting data to the computer system.
以上 明 した よ Ό に 本発明 に よ れば 付帯 子カゝ ら 発せ ら れた 別情報お よ び該付 子の位置 を す 置 情報 を受信 して ン ピ ュ 夕 シス ム (実世界ォブン X ク 卜 き π^ 識装置 ) にお いて 識する と ができ る た め 人、 ェ As described above, according to the present invention, additional information issued from the accessory card and the position of the accessory are determined. The information can be received and understood by the computer system (real world X-axis π ^ recognition device).
物 境な どの実世界の ォブジ X ク 卜 の少な く と も 位置 を ァル夕 ィ ム にサィ バ 世界に結合でき様々 な 曰 常生 活に密着 し たサ ―ビス を創生する と ができ る 特に 本発明 に れば 実世界のォブジェ ク h に付帯 さ れた付 W 子が発光指示命令を受信 し て識別情報が 致 し た場 π に発光 し の発光を シス テム側の撮像手段 で撮像 し て発光 占 の位置 を実世界ォブジ ェ ク 卜 の位置 と して特定 し の実世界ォ ブジ ク 卜 の位置を識別情報 で特定 さ れる サィ 世界のォブジ X ク 卜 に結合す る の で 人 物 環境な どの実世界の ォブジ ェ ク 卜 が引 さ At least the location of real world objects such as environments can be connected to the server world in the real world, and various services can be created that are closely related to everyday life. In particular, according to the present invention, the W attached to the object h in the real world receives the light emission instruction command and emits light when the identification information matches. Then, the position of the luminous occupation is specified as the position of the real world object, and the position of the real world object is combined with the object X object of the world specified by the identification information. Real world objects such as physical environment
す様 な出来事 を ァルタ ィ ム にサィ バ一世界の対応 する 才ブン ェ ク に結 α で さ 、 ン ピ タ ネ 卜 ク を活用 し た様 な 曰 常生活に密差 し たサー ビス を倉 IJ生 する と がでさ る  Such events can be linked to the global network and the corresponding talents in the world can be connected to the network. When I live in IJ
ま た 本発明 に よれば 光時 占 の注 フ レ ム画 信号か ら 近傍の フ レ ―ム画像信号 を所定の強 比率で減 算 して得 ら れる フ レ ム画像信号 に対 し て空間 フ ィ ル夕 処理ま た はパ夕 ンマ ッ チ ン グ処理 ま た は両処理 を含む ノ ィ ズ低減処理 を施 し 画 濃 の最 も 高 い画像 例え ば座 別 の信号強度の最 大さな画像を発光像 と 識 し 、 の発光像の フ レ一ム画像内位置 を付帯素子の位置 と し て特定 し サィ 世界のォブン ク と結 a す る ので、 付帯 子の付帯 子以外の光源か ら の外乱 ノ ィ ズの s  Further, according to the present invention, spatial image processing is performed on a frame image signal obtained by subtracting a nearby frame image signal at a predetermined strong ratio from a frame image signal of optical timing. The noise reduction processing that includes the filter processing or the pattern matching processing or both processing is performed, and the image with the highest image density, for example, the maximum signal intensity for each spot The image is identified as a light emission image, and the position of the light emission image in the frame image is specified as the position of the incidental element, and it is connected to the world's object. Disturbance from the noise of s
^> を適確に抑圧 し 光 象の 1^ ひいてはォブン X ク 卜 の位置を 確に特定する と がでさ る ^> And accurately identify the position of the optical image and thus the position of the Xbox X
更 に 本発明 に よ れば 注 フ レ ム画像信号か ら 隣 接フ レ ム画像信号ま たは付帯素子の非発光時の フ レ ム画像信号を減算 し た り ま たは注 巨 フ レ ム画像信号 か ら 刖後の フ レ ム画像信号 を所定の強度比率で減算 し て所定値以下 と な る フ レ ム 内 の画素信号 を除去す る の で 付帯 子の付帯素子以外の光源か ら の外乱 ノ ィ ズの 影 を適確 に除去 し 発光像の位置 ひいて はォブジ ェ ク 卜 の位置を適確に特定す る とがでさ る  Further, according to the present invention, the adjacent frame image signal or the frame image signal when the incidental element is not emitting light is subtracted from the note frame image signal, or The frame image signal after ら is subtracted from the frame image signal at a predetermined intensity ratio to remove the pixel signal in the frame which is less than a predetermined value. It is possible to accurately remove the shadow of these disturbance noises, and to accurately identify the position of the luminescent image and, consequently, the position of the object.
本発明 に よれば 所定周期で繰 Ό 返 し発光する か また は ラ ンダムな長さ のガ ド、 時間 の後繰 り 返 し発光 し 撮 像手段で付帯素子の発光 を撮像 し の発光 占 の位置を 実世界ォ ブン X ク 卜 の位置 と して特定 し 実世界ォ ブジ ク 卜 の位置を 別情報で特定 さ れる サィ バ 世界のォ ブジ X ク 卜 に 口 する ので 人 物 境な どの実世界 の ォ プジ X ク h が引 ぎ起 す様 な 出来事 を U ァル夕 ィ 厶 にサィ バ ―世界の対応する ォブジ X ク 卜 に結合で さ  According to the present invention, the light emission is repeated by a predetermined period, or a gad having a random length, and the light is repeatedly emitted after a period of time, and the light emission of the incidental element is imaged by the imaging means. The position is specified as the position of the real world object X, and the position of the real world object is specified by another information. The events that cause the world's oppositions X will be sent to the U-room, which will be combined with the corresponding object X-cuts in the world.
ン ピュ 夕 ネ ッ 卜 7 ク を活用 し た様々 な 曰 常生活に 密着 したサ ビス を創生す る と ができ る  It is possible to create a variety of services that are closely related to everyday life using the computer network.
ま た 本発明 に よれば 発光指示命令に応答 して所定 時間 所定の周期で繰 返 し発光する 付帯 '子を実世界 の才ブン ェ ク 卜 に付帯さ せ 発光指示命 を受信す る と 、 所定時間 所定の周期で繰 り 返 し発光 し の発光 を撮 像手段でま  Further, according to the present invention, when a light emitting instruction is received by attaching an incidental element which emits light repeatedly in a predetermined time and a predetermined cycle in response to a light emitting instruction command to a real world object, and Light emission is repeated for a predetermined time and at a predetermined cycle.
ί象 し の 光 占 の位 を実世界ォブジ ェ ク の位置 と し て特定 し の実世界ォブジ X ク 卜 の位置 をサィ バ 世界の ォブン ェ ク に和 α する の で 人、 物 還境な ど の実世界のォブン X ク 卜 が引 さ起 す様々 な 出 来事 を リ ァル夕 ィ ム にサィ バ ―世界の対応する ォブジェ ク 卜 に結 Π で さ ン ピ ュ 夕 ネ ッ 卜 ク を活用 し た 様々 な 曰 常生活に密着 し たサ ―ビス を創生す る と がで さ る Real world object The position of the real world object X specified as the position of the object is added to the position of the object world in the saba world, so that the object X, the object return, etc. Various events are linked to real-world events, which are linked to the corresponding objects in the world, and various types of events that use the network are connected to everyday life. ―When you create a screw,
更に 本発明 に よれば 発光指示命 τ に応答 し て発光 する 付 W 子 を実世界のォブジ X ク に付帯さ せ 、 発光 指示命 を受信 し た場合の付帯 子の発光を第 1 の撮像 手段で撮像 し 同 じ撮像視野を有する第 2 の撮像手段で 当該付帯 子の付帯 さ れて い る実世界のォブン ク 卜 の 画像を撮像 し 第 1 の撮像手段で撮像 し た発光点の位置 を実世界ォブジ X ク 卜 の位置 と し て特定 し の実世界 ォブジ X ク 卜 の位置 識別情報 を第 2 の撮像手段で撮像 し た実世界ォブン X ク 卜 の画像に 関連付け の実世界 ォブン X ク 卜 の画像およ ぴ位置を識別情報で特定 さ れる サィ バ 世界のォブン X ク 卜 に する ので 人 、 物、 環境な どの実世界のォブン X ク h が引 き起 す様々 な出 来事を U ァル夕 ィ ム にサィ バ 世界の対応する ォブジェ ク 卜 に α で さ る と と に ま たサィ バ 世界にお いて ン ピ ュ 夕 シス テムが S。心3識 し て い る 情報 を人間が観察 し て い る 実世界ォブン X ク 卜 の映像 を ねた り 相 関 を 持 てモ ―夕 U ン グ表示でさ ン ピ ュ タ ネ ッ 卜 ヮー ク を活用 し た様々 な 曰 常生活 に密笋 し たサ ビス を創生 する と がでさ る Further, according to the present invention, an accessory W that emits light in response to the light emission instruction τ is attached to an object X in the real world, and the light emission of the accessory when the light emission instruction is received is received by the first imaging means. The second imaging means having the same imaging field of view captures an image of a real world object attached to the accessory, and the position of the light emitting point captured by the first imaging means is determined by the second imaging means. The position identification information of the real world object X X specified as the position of the real world object X X is associated with the image of the real world object X X taken by the second imaging means. Since the image and position of the bird are converted into the observable X-cuts of the server world specified by the identification information, various events caused by the real-world obects X, such as people, objects, and the environment, can be considered. The world's corresponding objects in the world Down pin Interview evening system to have you in Sai server world was or to Ru door door is in the α to the S. Humans are observing the information that they are aware of. Real-world Observation X The image of the X-Cut is correlated and correlated. Various services that use the service When you do
本発明 に よ れば 第 1 45 よ び 2 の it像手段の視野の 方ま た は両方を画像 ンテ ンッ枠 り も 大き < し 、 枠 外 に ; f子在する 実世界ォブジェ ク の脇待機状態を把 ¾ し 、 の実世界ォブン X ク 卜 の識別情報 発光位置 発光時 点 を 口心識する た め 新た に撮像手段の視野に入 Ό てさ た 動体ォブンェ ク 卜 のき。心識を 円滑に行 う と ができ る  According to the present invention, the field of view or both of the 145th and the 2nd it image means are also larger than the image content frame and outside the frame; The state of the object is identified, and the identification information of the real world X-box is used. The light-emitting position The moving object newly entered into the field of view of the imaging means in order to sense the flash point. I can make my mind go smoothly
ま た 本発明 に よ れば 付帯素子は実世界ォブン ェ ク 卜 の 台  Further, according to the present invention, the incidental element is a base of a real world object.
状台目、 ま たは近傍の状 B ま た は両方を感知 し の感 知 し たセ ン シ ン グ情報を送信 し ン ピ 夕 シス テム はセ ン シ ン グ情報 を受信 し のセ ン シ ン グ情報 を実世 界ォブンェ ク 卜 の位置 と と も に識別情報で特定さ れる サ ィ バ 世界のォブン ェ ク 卜 ま た はサィ バ 世界の ォブジ Detects the status of the system and / or the proximity of the status B or both, and sends the sensing information that has been sensed, and the computer system receives the sensing information and sends the sensing information. The singing information is the object in the server world or the object in the server world specified by the identification information together with the location of the real world object.
X ク 卜 に 関連す る 情報 ま た は情報処理機能に 関連付けて、 実世界ォブジェ ク 卜 と サィ バ 世界ォブジェ ク h を結合 す る ので 実世界ォブン X ク 卜 の 白 身や近傍の 曰 、 湿 度 騒立 The real world object and the server world object h are connected in association with the information or information processing function related to the X cut, so that the white body and the vicinity of the real world X cut are wet and wet. Degree
曰 振動 C 〇 2 濃度、 花粉の多さ 、 加速度 、 動 き 傾さ 圧力 場所な ど の情報 も取得 し 、 サィ パ 世 界ォブジェ ク 卜 に 関連付け る こ とがでさ る  According to the report, information such as vibration C C2 concentration, pollen abundance, acceleration, movement, tilt and pressure can be obtained and related to the Sapa world object.
更に 本発明 に れば 付帯素子は実世界ォブン X ク 卜 の状 ま たは近傍の状 S' ま たは両方 を感知 し ン ピ ュ 夕 シス テム はセ ン シ ン グ情報を受信 し、 の実世界 ォブン ェ ク 卜 に関す るセ ン シ ン グ情報 位置情報お よ び 識別情報 を第 2 の撮像手段で撮像 し た実世界ォブジ X ク 卜 の画 f象 に 関連付け セ ン シ ン グ情報 を識別情報で特定 さ れるサィ パ 世界のォブン X ク ま た はサィ パ 世界 のォブン X ク に 関連する 情報 ま た は情報処理機能 に 関 連付け 実世界ォブン ク 卜 とサィ バ 世界ォブン X ク 卜 を和 1=1 す る ので 実世界ォブジ X ク 卜 の 白 身や近傍のFurthermore, according to the present invention, the incidental element senses the state of the real world X-cut or the state S 'or both, and the computer system receives the sensing information. Sensing information on real-world objects The location information and identification information are associated with the image of the real-world object X X imaged by the second imaging means. Sensing information Identified by identification information Related information related to information and information processing functions related to the X-World of X-World or X-World of X-World 1 so that the white of the real world object X
、〉曰 度 湿 立 ,>
曰 振動 C ο 2 濃度 花粉の多 さ 加 速度 動 さ 傾さ 圧力 場所な どの情報 を取得 し て  Say vibration C ο 2 concentration Pollen abundance acceleration speed
れ ら の情報 と 人間が観察 してい る実世界ォブン X ク 卜 の映像をサィ パ 世界才ブン X ク 卜 に 関連付け る と が でき る  This information and the images of the real world X-X X, which the human observes, can be associated with the super-world X-X X X.
本発明 に よれば 付帯 子は所定の動作 を実行す る ァ ク チ ュ ェ タ を有 し コ ン ピ ュ ―タ シス テム はァ ク チュ ェ 夕作動命令を送信 し ァ ク チュ ェ ―夕 作動命令受信 確 信号 ま たはァ ク チュ ェ一タ実行通知信号を付帯 子 か ら 受信 し ァ ク チュ ェ 夕 の作動機能に 関する 情報 を 実世界ォプン X ク 卜 の位置 と と も に識別情報で特定 さ れ るサィ パ 世界の 才ブン X ク に結 Π する ので 例 え ば バィ ブ レ 夕 モ タ ス ピ ―力 な どの よ う な ァ ク チ ュ ェ 夕 を用 いて実世界のォブジェ ク 卜 に関連 して種 の 作用 を 引 き起 す と がでさ る と と も に ァ ク チュ X 夕 の作動機能に 関する 情報をサィ パ ―世界のォブン X ク 卜 に結 □ し て ン ピ ュ 夕 ネ ッ V ク を活用 し た様々 な 曰 常生活 に密着 し たサ ビス を創生す る と がで き る 。  According to the present invention, the accessory has an actuator for performing a predetermined operation, and the computer system transmits an operation instruction for the operation and the operation for the operation. The command reception confirmation signal or the actuator execution notification signal is received from the accessory, and the information on the operation function of the actuator is identified by the identification information together with the position of the real world open box. Since it will be linked to the identified genius of the world, for example, it is possible to use an object such as a bi-directional camera to create a real-world object. In addition to causing the action of the species in relation to, the information on the actuation function of the actuator Xu X is linked to the super X-cut of the world. Various services using evening networking that provide services closely related to everyday life You can create it.
ま た 本発明 に よ れば 付 子は所定の動作 を実行 する ァ ク チュ X ―タ を有 し n ン ピ ュ ―タ シス テム がァ ク チュ X ―夕作動命 を送信 し 付 W素子か ら ァ ク チュ ェ 夕作 命 信確き口心信号ま た はァ ク チュ ェ 夕 実行 通知信号を付帯 子か ら 受信 し ァ ク チ ュ ェ 夕 の作動 機能 に関する情報 実世界ォブン X ク 卜 の位 情報 び識別情報 を第 2 の 像手段で撮像 し た実世界ォブン ェ ク 卜 の画像 に関連付け の 関連付け ら れた実世界ォブ ジェ ク 卜 の画像 位置情報 ァ ク チュ ェ 夕 の作動機能 に関する 情報情報 を 刖記識別情報で特定 さ れるサィ バ 世界のォブジ X ク 卜 に結 □ する ので ァ ク チ ェ タ を 用 いて実世界のォブン X ク 卜 に 関連 して種 の作用 を 引 さ起 す とがでさ る と と も に ァ ク チ X ―タ の作動 機能に 関する情報 び第 2 の撮像手段で撮像 し た実世 界ォ ブン X ク 卜 の映像をサィ バ一世界の ォブン X ク 卜 に 結 □ して ン ピ ュ タ ネ ッ 卜 ―ク を活用 し た様々 な 日 常生活 に密着 し たサ ―ビス を創生する と がでさ る Also, according to the present invention, the accessory has an actuating device for performing a predetermined operation, and the n-computer system transmits the actuating device to transmit the actuating operation, and whether the W element is attached. Rakuchu Receiving a reliable mouth signal or a work execution execution notification signal from the accessory, information on the operation of the work function, and the position and identification of the real world X-box Information of the real world object associated with the image of the real world object obtained by capturing the information by the second imaging means. Information on the operation function of the location information function. Since it is linked to the observable X-cut in the server world identified by the identification information, it is possible to use an actuator to cause the action of the species in relation to the observable X-cut in the real world In addition, information on the operation function of the Actuator X-X and the image of the real world X-ray X taken by the second imaging means are combined into the Ob-X X-ray of the server world. □ Various types of computer networks Create a service that is closely related to everyday life
更に 本発明 に よ れば 過去の発光に る き口心識位置か ら推定さ れ る領域を優先 して発光点 をき 。心識 し 第 2 の撮 像手段の撮影画像か ら 過去の発光 占 を含むォブン X ク 卜 の輪郭 を捕捉 し 発光がき  Further, according to the present invention, the luminous point is selected with priority given to the region estimated from the position of the mental sensation in the past luminescence. From the image captured by the second imaging means, the outline of the X-X cut including the past light-emitting occupation is captured and the light is emitted.
口心識でさ ない 間は 第 2 の撮像 手段の撮 画像か ら 才ブジ X ク 卜 の輪郭の移動 を追跡 し て付 子の 時的 蔽を補兀す る た め 付帯素子の発 光強度が弱 < な つ た り 発光が 時的に隠蔽さ れて も 、 継続的 に 世界ォブン X ク 卜 の位置を ラ ッ キ ン グす る と ができ る  During the period when the user is not conscious, the movement of the contour of the X-ray X-ray is traced from the image taken by the second imaging means to compensate for the temporal occlusion of the tag, and the light emission intensity of the attached device Is weak <Even if the light emission is occasionally obscured, it is possible to continuously track the position of the world Xbox X
本発明 に よれば 発光パタ ー ン のテ ン プ レー ト に過去 の発光部分画像 を反映す る か ま た は過去の発光点位置認 に使つ たテ ンプ レ― 卜 を使 Ό ため、 付帯 子以外の発 光源の誤認 ff^を抑制する と がでさ る 図面の簡単な 明 According to the present invention, a past light-emitting partial image is reflected on a template of a light-emitting pattern or a past light-emitting point position is detected. The use of the template used in step (b) suppresses misidentification ff ^ of the light source other than the accessory.
図 1 は 、 本発明 の実施の 、■*·  FIG. 1 shows an embodiment of the present invention.
形 に係 る実世界才ブン ク 卜 き刃  Real-world talented blades related to shape
口心識シス テム の概略構成 を示す図でめ る  Diagram showing the schematic configuration of the oral knowledge system
図 2 は 、 本発明 の一実施形台 に係わ る実世界と サィ バ 世界の才ブジ X ク 結合方法 を 明す る ため の 図で あ ス '  FIG. 2 is a diagram for illustrating a method of connecting the real world and the server world according to an embodiment of the present invention.
図 3 は 、 図 1 に示 し た実施形 にお いて各付帯 子の 光素子 ら の発光像 を撮像 した動画力 メ ラ の 出 力 フ レ ム画像 ( フ レ一ム毎の画像丁一タ ) を 図示 し て い る も の で あ る  Fig. 3 shows the output frame image of the moving image camera (the image table for each frame) that captures the emission image from the optical element of each accessory in the embodiment shown in Fig. 1. ) Is illustrated.
図 は 、 図 1 お び図 2 に示す ン ピ ュ一タ シ ス テム お よ び付 w 子の処理の一例を示す概略 フ 口一チ ャ一 卜 で あ る  The figure is a schematic block diagram showing an example of processing of the computer system and the attachment shown in FIGS. 1 and 2.
図 5 は 、 動画力 メ ラ の フ レ一ム画像に ノ ィ ズ と して現 れ ■、  Figure 5 shows the noise in the frame image of the moving image power camera.
た発光像を 刖 フ レ一ム画像 と の減算 (差分 ) 処理 に よ り 除去する処理を 明する ため の図でめ る  A diagram for clarifying the process of removing the emitted light image by subtraction (difference) from the 刖 frame image
図 6 は 、 図 1 お よ び図 5 に示すコ ン ピ ュ一タ ンス テム お よび付楚 w *乘子の処理の一例 を示す概略フ D一チ ャ 卜 で る  FIG. 6 is a schematic flow chart showing an example of processing of the computer system and the neat w * multiplier shown in FIGS. 1 and 5.
図 7 は 、 動画力 メ ラ の フ レ ム画像 に ノ ィ ズ と し て現 れた発光像 を 図 5 と は別 の減算処理 に よ り 除去する処理 を ρ兑明す る ため の 図で あ る 図 8 は、 図 1 お よ び図 7 に TCす 3 ン ピ タ シス 丁ム お び付 素子の処理の一例を示す概略 フ Π ―チ ャ 一 で あ る Fig. 7 is a diagram for explaining the process of removing the light emission image that appeared as noise from the frame image of the moving image camera by a different subtraction process from Fig. 5. is there FIG. 8 is a schematic diagram showing an example of the processing of the TC device and the attached elements shown in FIGS. 1 and 7.
図 9 は 、 差分処理で も ま だ残 て い る太陽光 、 照明な ど の発光源か ら の ノ ィ ズ信号を除去する 固定空間 フ ィ ル 夕処理 を §兌明する た め の図でめ る  Fig. 9 is a diagram to clarify the fixed space filter processing that removes noise signals from light sources such as sunlight and lighting that still remain in the difference processing. To
図 1 0 は 、 図 1 お よ び図 9 に示す ン ピ ュ 一夕 シス テ ム お よ び付 素子の処理の一例 を示す概略フ 口 一チ ャ 一 でめ る  FIG. 10 is a schematic front view showing an example of processing of the amp system and the element shown in FIGS. 1 and 9.
図 1 1 は 、 空間 フ ィ ル夕 処理の代わ り にパ 夕一ンマ V チ ング処理 を利用 し て 、 差分処理で も付帯素子の発光素 子の発光信号以外に残 て い る例 え ば太陽光 、 照明な ど の発光源か ら の ノ ィ ズ信号 を除去する 円錐形定義パ 夕 ― ンマ ヅ チ ン グ処理 を 明す る ため の 図であ る  Fig. 11 shows an example in which, instead of the spatial filter processing, the data processing is performed by using a parametric V-chitching process, and even in the difference processing, the light emission signals other than those of the light emitting elements of the incidental elements are left. FIG. 7 is a diagram for explaining a cone-shaped matching process for removing noise signals from light sources such as sunlight and lighting.
図 1 2 は 、 図 1 お よ び図 1 1 に示す ン ピ ュ一 タ シス テムお よ び付 素子の処理の一例 を示す概略 フ 口 ―チ ャ で め る  FIG. 12 is a schematic front view showing an example of processing of the computer system and the attached elements shown in FIGS. 1 and 11.
図 1 3 は 、 間 フ ィ ルタ 処理 フ レ ム画像 と パ夕 ― ンマ V チ ン グ処理後 フ レ ム画像か ら優先順位を 比較 し て最終的な優先順位 を決定 し 、 検出すベさ付帯 子の発 ヽ  Figure 13 shows how the priority is compared between the frame image processed by the inter-filter process and the frame image after the P-V-V-ching process to determine the final priority order and to detect it. Attachment of child
光素子の発光ハ占ゝヽ を識別する ォブン X ク 卜 抽出処理 を 明 する た め の 図であ る FIG. 4 is a diagram for explaining a process of extracting X-ray X-cuts for identifying occupancy of light-emitting elements of an optical element.
図 1 4 は 、 上述 し た 図 2 〜図 1 3 の処 を将 D し た結 果 を示す図であ る  FIG. 14 is a diagram showing a result obtained by performing the processing of FIGS. 2 to 13 described above in a general manner.
図 1 5 は 、 決定さ れた優先順位 1 位の発光ハ占、、 と ォブン ク 卜 に付帯さ れた付 素子の位 情報 を対 Ji 付 け そ の フ レ ム 内座標を付紫素子の位置情報 とする と を示 す説明図であ る Fig. 15 shows the occupied light emission of the first priority determined, and FIG. 9 is an explanatory diagram showing that positional information of an attached element attached to a cut is paired with Ji and coordinates in the frame thereof are set as positional information of an attached purple element.
図 1 6 は 図 1 5 に示 した よ Ό に抽出 さ れたォ ブン ク の識別 I D = m m + 1 ··· 発光指示命令 を送信 し た時間 T m T m + 1 当該ォブン ェ ク 卜 の フ レ ム画像 内座標 ( X m Y m ) 1 : X : m ·+ - 1 Y m + 1 ) FIG. 16 shows the identification ID of the object extracted as shown in FIG. 15 = mm + 1... The time when the light emission instruction command was transmitted T m T m + 1 of the object Frame image coordinates (XmYm) 1: X: m · +-1 Ym + 1)
··· を 関連付けた フ ァ ィ ル すなわ ち 各ォブジ X ク の フ レ ―ム画像内位 mデ 夕 抽出 フ ァ ィ ル を生成す る 処理 を 示 して い る 図で あ る Is a diagram showing a process of generating a file associated with..., That is, a file for extracting an in-frame m-data extracted from a frame image of each object X.
図 1 7 は 図 1 6 に示 し た各ォブン X ク 卜 の フ レ ム 画像内位置ァ タ 抽出 フ ァ ィ ル 3 5 を予め取 り 込 ま れて い る サィ ハ、 上の情報 フ ァ ィ ル と to し て ォブン ェ ク 了 夕 ベ ス 4 1 と して構成 し て扱 う と を p i明 し て い る 図で あ る  Fig. 17 shows the information file on the Saiha, where the position data extraction file 35 in the frame image of each X-X image shown in Fig. 16 is pre-loaded. It is a figure that pi indicates that it is to be configured and treated as an obverse
図 1 8 は 図 1 7 で口兌明 し た各ォブジ ェ ク の フ レ ム画像内位置 ―夕 抽出 フ ァ ィ ル と ォブン X ク 名 に関 する つ 夕 フ ァ ィ ルを才ブン ェ ク 卜 I D で結 □ し たォブ ジ X ク 卜 丁 夕 ベ ス のォフ ンェ ク 名 に 関する 了 夕 フ ァ ィ ル に対 して他の項 巨 であ る キ ヮ を 通キ と し て情報 フ ァ ィ ル を結 □ して情報丁 夕 ベ ―ス を構成 して い る と を示す図であ る  Figure 18 shows the position of each object in the frame image that was converted in Figure 17-the extracted file and the name of the object X ID ク ォ で X で で で ク ク ID ID ID ク ID ID ク ID ID ID ク ク ク ク ク ク クIt is a diagram showing that an information file is linked to form an information database.
図 1 9 は ォブジ X ク 卜 の フ レ ム画像内位置 夕 抽出 フ ァ ィ ル をサィ バ一空間上 (ネ ソ 9 ク に接 さ. れた 機群 と亩 ¾ さ れた情報か ら な る 空間 ) で の 才ブ ジ X ク 卜 管理 に関 付けて 実世界 とサィ バ 世界の ォ ブン ク 管理丁 夕 ベ ス を する と を示 し て い 築 Figure 19 shows the location of the object X in the frame image in the frame image. The extracted file was placed on the server space (from the information related to the units connected to the network). Space in the space) It shows that the X-box management is based on the ob-
る 図であ る It is a figure
図 2 0 は 本発明 に係る 図 1 に示す実世界ォブジ X ク 卜 H哉シス テム の他の実施形能の全体 作を 明す る た め の 図で あ る  FIG. 20 is a diagram for explaining the overall operation of another embodiment of the real world object X-Cut Hya system shown in FIG. 1 according to the present invention.
図 2 1 は 図 2 0 に示す実施形 にお いて各付帯素子 の発光素子か ら の発光像を撮像 し た動画力 メ ラ の 出力 フ レ ム画像 ( フ レ ム毎の画 了 タ ) を 図示 し て い る 像  Fig. 21 shows the output frame image of the moving image camera (the frame-by-frame image) that captures the emission image from the light-emitting element of each auxiliary element in the embodiment shown in Fig. 20. The statue shown
も のでめ る See
図 2 2 は 本発明の別の実施形台 に係わ る本発明 に係 る 図 1 に示す実世界ォブジ X ク き 識シス テム の他の実 施形態の全体動作を 明する た め の 図でめ る  FIG. 22 is a diagram for illustrating the overall operation of another embodiment of the real world object X-recognition system shown in FIG. 1 according to the present invention according to another embodiment of the present invention. Show up
図 2 3 は 本発明 に係 る 図 1 に示す実世界ォブン ク 卜 き 識シ ス テム の他の実施形台 の全体 作を 明する た m  FIG. 23 shows the overall work of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
め の 図で あ る It is a figure for
図 2 4 は 本発明 に係る 図 1 に示す実世界ォブン ェ ク き心識シス テム の他の実施形 の全体 作 を 説明す る た め の 図で あ る  FIG. 24 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system shown in FIG. 1 according to the present invention.
図 2 5 は 本発明 に係 る 図 1 に示す実世界ォブジ ェ ク 卜 き口心識シス テム の他の実施形態の全体 作を 兌明す る た m  FIG. 25 is a block diagram showing the overall construction of another embodiment of the real-world object mental system shown in FIG. 1 according to the present invention.
め の 図で あ る It is a figure for
図 2 6 は 本発明 に係 る 図 1 に示す実世界ォブン X ク 卜 き 識シ ス テム の他の実施形台 の全体動作を Si明する た め の 図で あ る 図 2 7 は、 1 の «1画力 メ ラ で it像 し た付帯 子の発 光 占 の位置 と第 2 の動画力 メ ラ で撮像 し た実世界ォ ブンFIG. 26 is a diagram for explaining the overall operation of another embodiment of the real-world X-ray recognition system shown in FIG. 1 according to the present invention. Figure 27 shows the position of the luminous occupancy of the incidental image taken with the 1 «1 power camera and the real world object captured using the 2 nd video camera.
X ク 卜 の画像 と の ま たは関連付け を 明する た め の 図で あ る It is a figure to clarify the association with the image of the X cut
図 2 8 は 、 図 1 お よ び図 2 6 に示す ン ピ ュ 夕 シス テム およ び付帯 子の処理の 例 を示す概略フ 口 チ ャ 卜 であ る  FIG. 28 is a schematic flowchart showing an example of the processing of the computer system and the attachments shown in FIGS. 1 and 26.
図 2 9 は 、 第 1 の動画力 メ ラ で撮像 し た付帯素子の発 光 占 の位置 と第 2 の動画力 メ ラ で撮像 し た実世界ォブン Figure 29 shows the position of the light-emission occupancy of the incidental element imaged with the first moving image camera and the real-world object imaged with the second moving image camera.
X ク 卜 の画像 と の 関連付け に いて 、 第 1 の動画力 メ ラ で撮像 し た付 p 子の発光 占 の位置座 f r; に該当する 第 2 の動画力 メ ラ で撮像 し た実世界ォブン ェ ク 卜 の画像上 に 可視 力 を重ねて表示 し た 図で あ る Regarding the association with the X-cut image, the real world object imaged by the second moving image power camera corresponding to the position fr of the luminous occupancy of the appendix imaged by the first moving image camera This is a view in which the visual power is superimposed on the image of the project
図 3 0 は 、 図 1 お よ び図 2 9 に示す ン ピ ュ 夕 シス テム およ ぴ付 素子の処理の 例 を示す概略 フ D チ ャ 卜 であ る  FIG. 30 is a schematic diagram showing an example of the processing of the computer system and the attached elements shown in FIGS. 1 and 29.
図 3 1 は 、 本発明 に係 る 図 1 に示す実世界ォブン ェ ク 卜 W 識シス テム の他の実施形能、の全体動作 を §兌明す る た め の 図であ る  FIG. 31 is a diagram for §-converting the overall operation of another embodiment of the real world object W knowledge system shown in FIG. 1 according to the present invention.
図 3 2 は 、 図 3 1 の実施形台 にお いて第 1 の動画力 メ ラ の視野範囲 と第 2 の動画力 メ ラ の視野範囲 を 同 じ に し た図であ る  FIG. 32 is a diagram in which the visual field range of the first video power camera and the visual field range of the second video power camera are the same in the embodiment table of FIG. 31.
図 3 3 は 、 本発明 に係 る 図 1 に示す実世界ォブン X ク FIG. 33 is a diagram illustrating the real world X-X shown in FIG. 1 according to the present invention.
Π'ί 識シス テム の他の実施形能 の全体動作を 明する た め の 図であ る 。 、❖ FIG. 11 is a diagram for explaining the overall operation of another embodiment of the Π'ί knowledge system. , ❖
図 3 4 は 、 ォブン X ク 管 丁 夕 ベ ス の生成処理 を 明する ため の 図で あ る  FIG. 34 is a diagram for explaining the process of generating the X-Voice tube.
 ,
図 3 5 は 、 ォブン X ク 管理丁 夕 ベ ―ス を構成する た め の処理 を 明する ため の 図であ る  FIG. 35 is a diagram for clarifying the processing for configuring the job management base.
図 3 6 は 、 ォブンェ ク 卜 管理丁 ―夕 ベ ス を構成する た め の処理 を 兌明する ため の 図であ る  Fig. 36 is a diagram for converting the process for constructing the object management section-evening
図 3 7 は 、 本発明に係る 図 1 に示す実世界才ブジェ ク き口' 識シス テム の他の実施形食、 g の全体 作を説明す る た m  FIG. 37 illustrates another embodiment of the real world gift object recognition system shown in FIG. 1 according to the present invention.
め の 図であ る It is a figure for
図 3 8 は 、 図 2 7 に し た付帯素子の発光点の位置 と 第 2 の動画力 メ ラ で撮像 し た実世界ォブジェ ク 卜 の画像 と の結 □ に お いて付帯 子の情報 と して更にセ ン シ ン グ Figure 38 shows the information of the accessory in the connection between the position of the light-emitting point of the accessory shown in Figure 27 and the image of the real-world object captured by the second moving image power camera. And further sensing
7" ―夕 を加え た図であ る 7 "-The figure with the evening added
図 3 9 は 、 図 2 9 に し た付帯 子の発光点の位置 と 第 2 の動画力 メ ラ で撮像 し た実世界ォブンェ ク 卜 の画像 と の 関連付け に いて実世界ォブジ X ク 卜 の画像上 に可 視マ 力 を重ねて表示 し た も の に更 に付 W茶子の情報 と して更にセ ン シ ン グ丁 タ を加えた図で め  Fig. 39 shows the relationship between the position of the light emitting point of the accessory shown in Fig. 29 and the image of the real world object captured by the second moving image camera, and the image of the real world object X-cut. This is a diagram in which visual power is superimposed on the top and additional sensing information is added as information for W Chako.
図 4 0 は 、 本発明 に係 る 図 1 に示す実世界才ブン X ク 識シス テム の他の争施形 の全体 作を説明する た m  FIG. 40 is a diagram illustrating the overall construction of another contested form of the real-world smart X-knowledge system shown in FIG. 1 according to the present invention.
め の図であ る It is a diagram for
図 4 1 は 、 本発明 に係 る 図 1 に示す実世界ォブジ ク 卜 き口心 シス テム の他の実施形態の全体 作を説明す る た m  FIG. 41 is a diagram for explaining the overall operation of another embodiment of the real-world object contact system shown in FIG. 1 according to the present invention.
め の図であ る It is a diagram for
図 4 2 は 、 本発明 に係 る 図 1 に示す実世界才ブジ X ク き シ ス 丁 ム の他の 施形態の全体動作 を説明する た め の 図で あ る FIG. 42 is a diagram illustrating the real world talented X-X shown in FIG. 1 according to the present invention. FIG. 10 is a diagram for explaining the overall operation of another embodiment of the system
図 4 3 は ァ ク チュ ェ一 夕作動命令を付帯素子 に送信 し 付帯素子か ら 必要に よ り ァ ク チ ユ エ一夕 作動命令受 信確き 信号 ま た はァ ク チュ ェ 夕 実行通知信号を受信す る よ Ό に構成 し た 図であ る  Fig. 43 shows the actuating one-time operation command sent to the attached device, and if necessary, the actuating one-time operation command reception confirmation signal or the actuating event notification from the attached device. FIG. 2 is a diagram configured to receive a signal.
図 4 4 は 付帯素子の発光 占 の位置 と第 2 の動画力 メ ラ で ί 像 し た実世界ォブン X ク の画像 と の結合 にお い て付帯素子の情報 と して更 に ァ ク チ ュ X 夕 作動機能 に 関する 情報 を加えた 図であ る  Figure 44 shows the information of the additional element in the combination of the position of the luminous occupancy of the additional element and the image of the real world X-X imaged by the second moving image camera. It is a diagram to which information on the X X operation function has been added.
図 4 5 は 実世界ォプン X ク 卜 の画像 ±に可視マ 力 を重ねて表示 し た も の に更 に付帯素子の情報 と し て ァ ク チュェ 夕 作動機能に関する 情報を加えた図でめ る  Fig. 45 shows the image of the real world open X-cut with the visible power superimposed on it and the information on the actuation function added as additional element information.
図 4 6 は 図 4 1 に示 し た実施形態にお いてァ ク チ ェ 夕 と し て可視光発光素子 を使用 し た場 の 図であ る 図 4 7 は 図 4 5 に示 し た よ に付帯 子にァ ク チ ュ ェ ―夕 と し て可視光発光 子を有す る場 □ にお い て 図 2 FIG. 46 is a diagram of a case where a visible light emitting element is used as an actuator in the embodiment shown in FIG. 41. FIG. 47 is a diagram of FIG. Fig. 2 In the case of visible light emitters in the evening □
6 に示 し た第 2 の動画力 メ ラ を設けた場 口 の 図で め る 図 4 8 は 図 1 お び図 2 9 に示す ン ピ ュ ―タ シス テムお び付帯 子の処理 の 例 を示す概略 フ 口 チ ャ 卜 で あ る Figure 48 shows an example of the processing of the computer system and accessories shown in Figures 1 and 29. It is a schematic chart showing the outline
図 4 9 は 本発明 に係る 図 1 に示す実世界オブジェ ク き 識シ ス テ ム の他の実施形態の全体動作を説明する た め の図であ る  FIG. 49 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
図 5 0 は 本 明 に係 る 図 1 に示す実世界オブジ ェ ク 卜 き シス 丁ム の他の 施形態の全体動作を説明する た め.の 図であ る Figure 50 is the real world object shown in Figure 1 according to the present invention. It is a diagram for explaining the overall operation of another embodiment of the system.
図 5 1 は 、 本発明 に係 る 図 1 に示す実世界オブジェ ク 卜 き 識シス テム の他の実施形態の全体動作 を説明する た め の 図であ る  FIG. 51 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
図 5 2 は 、 本発明 に係 る 図 1 に示す実世界オブジ ェ ク 卜 口心識シス テム の他の実施形態の全体動作 を説明する た め の 図であ る  FIG. 52 is a diagram for explaining the overall operation of another embodiment of the real-world object oral knowledge system shown in FIG. 1 according to the present invention.
図 5 3 は 、 図 1 お び図 5 2 に示すコ ン ピ ュ ー タ シス テム お び付 子の処理の一例 を示す概略フ ロ ーチ ヤ 卜 でめ る  FIG. 53 is a schematic flow chart showing an example of the processing of the computer system and the armature shown in FIGS. 1 and 52.
図 5 4 は 、 図 1 よ び図 5 2 に示すコ ン ピ ュ ー タ シス テムおよ び付帯 子の処理の一例 を示す概略フ ロ ーチ ヤ 卜 であ る  FIG. 54 is a schematic flowchart showing an example of the processing of the computer system and the attachments shown in FIGS. 1 and 52.
図 5 5 は 、 特にォ ブン ェ ク 卜 の付 する 付 、 子の付 帯 ; 子か ら の発光ハ占、、を 。心識す る た め の発光パ 夕 ン のテ ン プ レ ― 卜 に対 して付帯素子の過去の発光部分画像 を反 映 して 、 過去の発光部分画像 と相似 し たァ ンプ レ 卜 を 使用 し た処理を示す図で あ る  FIG. 55 shows, in particular, the attachment of the object and the attachment of the child; the emission of light from the child. Reflecting the past light-emitting partial image of the incidental element on the template of the light-emitting panel for the sake of understanding, and using a template similar to the past light-emitting partial image It is a diagram showing the processing used
図 5 6 は 、 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 口心識シス テム の他の実施形 の全体動作を 説明す る た め の図で あ る  FIG. 56 is a diagram for explaining the overall operation of another embodiment of the real-world object X-cut portal system shown in FIG. 1 according to the present invention.
図 5 7 は 、 実施形能ヽ に いて過去の付帯 子の発光ハ占、、 位置 §心 に使つ たテ ン プ レ 卜 を使 て処理 を示す図で あ る 。 図 5 8 は 本 明 の別 の実施形 にお いて 付 子 の発光を撮像す る撮像手段の撮 ^条件の変更中処 を示 す図であ る FIG. 57 is a diagram showing the process of using the template used for the position of the light emitting device and the position of the accessory in the past in the embodiment. FIG. 58 is a diagram showing the process of changing the imaging conditions of the imaging means for imaging the light emission of the accessory in another embodiment of the present invention.
図 5 9 は 本発明 に係 る 図 1 に示す実世界ォブン X ク き 識シス テム の他の実施形能 の全体動作 を §兌明す る た め の 図で あ る  FIG. 59 is a diagram for 兌 converting the entire operation of another embodiment of the real world X-X knowledge system shown in FIG. 1 according to the present invention.
図 6 0 は 本発明 に係 る 図 1 に示す実世界ォブン ェ ク 卜 き 識シス テム の他の実施形 の全体動作 を 兄明す る た め の 図であ る  FIG. 60 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system shown in FIG. 1 according to the present invention.
図 6 1 は テ ン プ レ 卜 と して付帯 子の 中央の光強 度を最大露光値付近 と し その 中央か ら 円錐状に光強度 が下がる テ ン プ レ 卜 を使用す る と を示す図で め る 図 6 2 は 本発明 に係 る 図 1 に示す実世界ォブジ ェ ク 卜 識 シス テム の他の実施形會 の全体動作 を 説明す る た め の 図であ る  Figure 61 shows the use of a template in which the light intensity at the center of the accessory is near the maximum exposure value and the light intensity decreases conically from the center. FIG. 62 is a view for explaining the overall operation of another embodiment of the real world object recognition system shown in FIG. 1 according to the present invention.
図 6 3 は 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 識シス テム の他の実施形台 の全体動作を 説明する た め の 図であ る  FIG. 63 is a diagram for explaining the overall operation of another embodiment of the real world object X-cut recognition system shown in FIG. 1 according to the present invention.
図 6 4 は 本発明 に係 る 図 1 に示す実世界ォブン X ク 卜 き 識シス テム の他の実施形 の全体動作を説明す る た め の 図であ る  FIG. 64 is a diagram for explaining the overall operation of another embodiment of the real world X-ray recognition system shown in FIG. 1 according to the present invention.
図 6 5 は 本発明 に係 る 図 1 に示す実世界ォブン X ク 卜 識シス テム の他の実施形台 の全体動作を 明する た め の図であ る 明 を実施する た め の最良の形態 FIG. 65 is a diagram for explaining the overall operation of another embodiment of the real-world X-cut recognition system shown in FIG. 1 according to the present invention. Best mode for implementing
以下 本発明に係 る実世界ォブジェ ク ト き。心識方法お よ び装置 な ら びに実世界ォフ シェ ク 卜 s 識用付帯 子 を 実施する た め の最良の形態 につ いて 図面 を参照 し て 明 する  Hereinafter, a real world object according to the present invention will be described. With reference to the drawings, the best mode for carrying out the knowledge method and the device and the real-world software s accessory will be described.
図 1 は 本発明 の実施の形態に係 る 実世界ォブン ェ ク 識装置お よ び実世界ォブジェ ク 卜 認識用 付帯 子を 含む実世界ォブジ ェ ク 卜 き口心刃識シス テム 1 の概略構成 を示 す図でめ る  FIG. 1 shows a schematic configuration of a real-world object recognition system 1 including a real-world object recognition device and a real-world object recognition accessory according to an embodiment of the present invention. Figure showing
図 1 に示すよ に、 実世界ォブジ ェ ク ト き口心識シス テム As shown in Figure 1, a real-world object contact system
1 は 実世界にお ける所定の認識対象領域 (例え ば 室 内 間 屋外 空 間等) こ 存在す る 実世界ォ ブ ジ ェ ク 卜1 is a predetermined recognition target area in the real world (for example, inside a room, outside, or the like), and existing real world objects
(以下 単に ォフ ジ エ ク h とする ) の情報 (実世界ォブ ン X ク 卜 情報 ) を 、 サィ バ —世界 を構成す る コ ン ピ ュ 夕 シス テム (実世界ォブジェ ク ト 認識装置に対応 ) 2 に き口心 さ せ る と に よ り 上記実世界ォブジ X ク 卜 情報 を ン ピ ュ ―夕 シ ス , テ ム (サイ バー 世界) 2 に 結 α ( 融 八 ) さ せる シス テムであ る The information (real world object X cut information) (hereinafter simply referred to as “office object h”) is sent to a server—a computer system (real world object recognition device) that constitutes the world. 2) The above-mentioned real-world object X-cut information is linked to α-symbols and tems (cyber-worlds) 2 by α. System
実世界ォブン ェ ク 卜 O と しては、 後掲図 2 に示す に 植木鉢に植え ら れた植木であ っ て環境 を構成する ォ ブジ X ク 卜 〇 a ヒ 卜 で あ る と こ ろ のォ ブン ェ ク 卜 Ο b か ばんな ど の モ ノ で あ る ォブジェ ク 卜 0 c が 例 と して 挙げ ら れる  As shown in Fig. 2 below, the real world object O is a tree planted in a flowerpot and is an object that constitutes the environment. The object 0c, which is the object of the object b, is an example.
図 1 に示すよ う に、 実世界ォブジェ ク ト 口心 ϋシス テム As shown in Figure 1, a real-world object
1 は 上記実世界ォブン ェ ク ト の情報を認識する コ ン ビ 3. 夕 シス テム 2 と 実世界ォブジ ェ ク に付帯さ れて お り 付帯元のォ ブン X ク 卜 に関連する 情報 を発する と ができ る 付 素子 1 1 と を備えてい る 1 is a combination that recognizes the information of the real world object. 3. Equipped with an evening system 2 and an attached element 11 attached to the real world object and capable of emitting information related to the attached X-box.
付 素子 1 1 は 白付帯素子を 意に識別す る 識別 I Attached element 1 1
D 等の識別情報を有 し の識別情報 を記憶する 例 え ば メ モ U 等の識別情報記憶手段 1 4 を備えてい る For example, an identification information storage means 14 such as a U is provided for storing identification information having identification information such as D.
な : 付 帯 子 1 1 は . I C I n t e g r a t i o n What: Attachment 1 1. I C I n t e g r a t i o n
C i r c u i t ) 夕 グや R F ' I D ( R a d i o F r e q u e n c y I D ) 夕 グ等 を備え る とが可能で め る C i r c u i t) evening and R F 'I D (Ra d i o F r e q u en c y I D) evening etc.
さ ら に 付歩素子 1 1 は その機能 と して 3 ン ピ 夕 シス テム 2 か ら 送信さ れてきた発光指示命令 に応 じ て上記実世界ォブジ ェ ク 情報 と しての 自 付 fff 茶子の位 置情報 付帯元ォブジ X ク 卜 の位置情報 ) を例え ば発光 情報 と し て 出力する位置情報出力部 1 5 と コ ン ピ ュ 夕 シス テム 2 か ら 送信さ れてさた作動命令 に応 じ て 予 め搭載さ れた作用 素子 ァ ク チュ 夕 等 ) 1 6 a を作 動 さ せる 作動部 1 6 と ン ピ ュ― 夕 シス テム 2 か ら 送 信 さ れて さ たセ ン シ ン グ指示に応 じて、 予め搭載さ れた 感知手段 セ ンサ ) 1 7 a に よ り 感知情報 を検出 し て ン ピ ュ 夕 シス テム 2 に送信する セ ン シ ン グ部 1 7 と を 備えて い る □ なお 付 子 1 1 は 、 少な < と も位置情 報出力部 1 5 を搭載 して いればよ い  In addition, the walking element 11 has its function as a self-attached fff brown as the above-mentioned real world object information in response to a light emission instruction command transmitted from the three-pixel system 2. The position information output unit 15 which outputs the position information of the child (the position information of the attached source object X) as, for example, light emission information and the operation command transmitted from the computer system 2. (Attachment of the working element pre-installed in accordance with the operation) 16) The actuating part 16 that operates the 16a and the sensor sent from the pump system 2 In response to the singing instruction, a sensing unit 17, which detects sensing information by a pre-installed sensing means sensor 17 a and transmits it to the computer system 2, is provided. □ Note that it is only necessary for the attachment 11 to have a small number of <15
方 3 ン ピ ュ タ シス テム 2 は 、 図 1 に示す う に、 上記付 素子 1 1 すなわ ち 付 ffT 系子 1 1 が付帯さ れた ォブン ェ ク 卜 0 を 別する ため の識別情報 を生成する識 別情報生成手段 2 0 と 生成さ れた識別情報に対 、する 発光命令 (例 え ば 「生成識別 '情報 に対応する 付帯素子 は発光せよ J と い 内容の命令 ) を送信する発光指示命 送信手段 2 1 と を備えてい る 0 As shown in FIG. 1, the computer system 2 uses the identification information for distinguishing the above element 11, that is, the object 0 to which the ffT element 11 is attached. Knowledge to generate Transmits a light emission instruction (e.g., an instruction with a content of `` Emit the auxiliary element corresponding to the generation identification '' information to emit light J) to the separate information generation means 20 and the generated identification information. Means 2 1 and 0
ま た ン ピ ュ 夕 シス テム 2 は 上記 識対象領域 を撮像視野 と して撮像する例 え ば動画力 メ ラ等の第 1 の 像手段 2 2 と 第 1 の撮像手段 2 2 に よ り 士 像 さ れた 映像情報 に含まれる ノ ィ ズを低減す る 処理 を行 ノ ィ ズ 処理手段 2 3 と 第 1 の撮像手段 2 2 に り 撮像 さ れた 映像情報 ( ノ ィ ズ処理 さ れた映像情報 ) お よび i別情報 生成手段 2 0 に よ Ό 生成 された識別情報 に基づい て 、 映 像情報に含まれる発光点の位置座 お よ び識別情報 を対 応付けす る発光ハ占、、位置座 /識別情報対応付け手段 2 5 と を備えてい る  In addition, the computer system 2 is configured by a first imaging means 22 and a first imaging means 22 such as a moving image camera, for example, for taking an image of the above-mentioned recognition target area as an imaging visual field. A process for reducing noise included in the imaged video information is performed, and the image information (noise-processed) is captured by the noise processing unit 23 and the first imaging unit 22. The video information) and the i-by-i information generating means 20 発 光 based on the generated identification information, a light-emitting point for associating the position of the light-emitting point included in the video information and the identification information; And means for associating position / identification information 25
さ ら に ン ピュ 夕 シス テム 2 は 対応付け手段 2 Furthermore, the computer system 2 is a means for associating 2
5 に よ り 得 ら れた 識別情報 +位置情報 か ら 例 え ば ィ ス プ レィ 等の映像表示手段 2 6 の表示画面上 の対応 す る 位置 に識別マ 力 を生成 して表示す る処理を実行す る マ 力 情報生成手段 2 7 と 第 1 の撮像手段 2 2 と例 え ば同 の撮像視野 (上記き刃識対象領域 ) を撮像する 例 え ば動画力 メ ラ等の第 2 の撮像手段 3 0 を備えてお り 、 の第 2 の撮像手段 3 0 に よ り 撮像 さ れた映像情報は映 像表示手段 2 6 に送 ら れて該映像表 手段 2 6 に よ り 表 示 さ れる なお 上記 別マ 力 が生成さ れていれば、 そ のマ 力 情報は映像情報に 畳 し て表示さ れる 3 ン ピ ュ 夕 シス 丁ム 2 は その ン ピ ュ 夕 ンス丁 ム を利用 でさ る ザに対する ィ ン夕 フ ェ ―ス ( I F ) 用 のュ ザ I F 部 3 1 を備え てお り の ュ ―ザ I F 部Processing for generating and displaying identification force at a corresponding position on the display screen of a display screen of, for example, a display 26 from the identification information and position information obtained from 5, for example, a display. For example, the force information generation means 27 and the first image pickup means 22 for executing the same image pickup visual field (the above-mentioned cutting target area), for example, the second force such as a moving image force camera An image pickup means 30 is provided, and image information picked up by the second image pickup means 30 is sent to the image display means 26 and displayed by the image display means 26. If the separate power is generated, the power information is displayed by folding it onto the video information. 3 Computer system 2 has a user interface section 31 for an interface (IF) for the user who can use the computer system. ―The IF section
3 1 は 映像表示手段 2 6 お び入力手段 3 2 と 共に グ ラ フ ィ 力 ル ザィ ン 夕 フ X ス機能を 現す る よ Ό に な つ てい る 3 1 is used together with the image display means 26 and the input means 32 to display the graphing function.
の ザ I F 部 3 1 は ン ピ ュ 夕 シス 了ム 2 と 一体に sru  The IF section 31 of sru is integrated with the computer system 2
PXけて いて も よ < ま た ン ピ ュ タ シス テム Even if you are using PX
2 に対 し て 隔に配置さ れ 電 回線 専用線等 の通信 回線を介 し て ン ピ ュ 夕 シス テム 2 と 信可能な通信 端末 (例え ば ュ ザが利用 でさ る パ ―ソ ナル ン ピ ュ 夕や 帯 m末等 ) で あ つ て ち い Communication terminals that can be communicated with the computer system 2 via a communication line such as a power line dedicated line, etc. (for example, a personal computer that can be used by a user). (Evening at the end of the evening or at the end of the belt)
すなわち . ザは 入力 手段 3 2 を操作 して映像表 示手段 2 7 に表示さ れた映像情報の所定位置 を ク •J ッ ク し て指定 し た Ό 所定の要求 をュ ザ I F 部 3 1 を介 し て ン ピ ュ 夕 システム 2 に対 し て送る と がで き る  That is, the user operates the input means 32 and clicks and designates a predetermined position of the video information displayed on the video display means 27. を A predetermined request is sent to the user IF section 31. Via the computer to the computer system 2
例え ば 映像表示手段 2 7 に表示さ れた映像情報上 に お いて 上述 し た識別マ 力 が表示さ れて い る ■七旦 A口 には、 ュ ―ザは 入力手段 3 2 を操作 し て上記識別マ 力 を ク ッ ク して指定する と がで さ る  For example, the above-described identification power is displayed on the video information displayed on the video display means 27. ■ At the Achitan A mouth, the user operates the input means 32. Clicking and specifying the above identification power
ン ピ ュ 夕 シス テム 2 は さ ら に ザ I F 部 3 1 にお ける 入力手段 3 2 を介 し た入力 に応 じて そ の入力 が 厂 1 J ど の識別情報の付帯素子 に対 して 厂 2 J 何 を要 求する のか を判断する た め の 別情報決定 /' 求決定手 段 3 5 を備えて い る 例え ば ュ 1 ~ザが 入力手 3 2 操作 して の位 置を ク V ク (指定 ) し た り ク リ ッ ク 回数 を変え た り 、 階層的 に ク ッ ク する と に よ 複数の要求を識別情 報決定 /要求決定手段 3 5 に対 し て入力する と ができ る In addition, in response to the input via the input means 32 in the IF section 31, the input system 2 transmits the input data to the element having identification information such as the factory 1 J. Factory 2 J Equipped with another information determination means 35 to determine what information is required / ' For example, if the user 1- user clicks on the position of the input operation 3 2 (specifies) the position, changes the number of clicks, or clicks hierarchically, multiple requests can be made. Can be input to the identification information determination / request determination means 35.
そ して 3 ン ピ ュ ―夕 シス テム 2 は 、 別情報決定 Z 要求決定手段 3 5 に よ り 指定さ れた指定付帯 、'子 に対す る セ ン シ ン グ指示が決定さ れた場 n 、 その指定付帯素子 の識別情報を含むセ ン シ ン グ指示 を送信す る セ ン シ ン グ 指示送信手段 4 0 と 送信 さ れたセ ン シ ン グ指示情報 に 応 じ て 指定付 子 1 1 のセ ン シ ング部 1 7 か ら 送信 さ れて さ たセ 'ン シ ン グ情報 を受信する セ ン シ ン グ情報受 信手段 4 1 と を備えてい る  Then, the 3rd-evening system 2 determines whether the sensing instruction for the child is determined by the additional information specified by the separate information determination Z request determination means 35. n, a sensing instruction transmitting means 40 for transmitting a sensing instruction including the identification information of the designated incidental element, and the designated element according to the transmitted sensing instruction information. And a sensing information receiving means 41 for receiving the sensing information transmitted from the sensing section 17 of 11.
ま た n ン ピ ュ ―夕 シス テム 2 は 、 識別情報決定 /要 求決定手段 3 5 に よ り 指定 さ れた指定付帯素子に搭載 さ れた作用 子 1 6 a に対す る 作動命 が決定 さ れた場合 そ の指定付帯素子の識別情報 を含む作動命 を送信する 作動命令送信手段 4 5 と 、 送信 さ れた作動命令に応 じて 指定付帯素子 1 1 の作動部 1 6 か ら 送信 さ れてさ た作用 実行通知 作動命 受信確き P心信号受信手段 ( 又信手段) In addition, the operating system for the actuator 16a mounted on the specified incidental element specified by the identification information determination / request determination means 35 is determined by the n ump-evening system 2. When it is sent, the operation command including the identification information of the designated incidental element is transmitted, and the operation instruction transmitting means 45 and the operation section 16 of the designated incidental element 11 are transmitted according to the transmitted operation instruction. Performed action Execution notification Operational command Received confirmation P heart signal receiving means (and communication means)
4 6 と を備えて い る 4 6 and are equipped
そ し て 3 ン ピ ュ 夕 シス 丁ム 2 は 、 対 itヽ付け手段 2 Then, the 3rd party system 2 is a
5 に よ 取得さ れた識別情報お よ び発光ハ占、ヽ位置座 、 セ ン シ ン グ情報受信手段 4 1 に よ り 受信さ れたセ ン シ ン グ 情報お よ び対応す る H 別情報 、 な ら びに受信手段 4 6 に よ り 受信 さ れた作用 行通知 /作 命 受信確き口 ' 信号 に 基づ <作動履歴情報お び対応する識別情報の 内 の少なThe identification information and the light-emission occupation obtained by 5, the position information, the sensing information received by the sensing information receiving means 41, and the corresponding H Additional information and reception means 46 Based on the signal of the action line notification / action received, the operation history information and the corresponding identification information
< と ち何れか 2 つ の情報 を、 何 ら か の形で リ ンク (関連 付け ) し て 積する 情報関連付け - 情報 禾貝手段 (関連 付け 積手段 ) 4 7 を備えて い る <Information association that links (associates) any two pieces of information in some way or another-Information moss means (association means) 47
の ン ピュ 夕 シス テム 2 は 、 付帯素子 1 1 に対す る 線通信機能 を有する ィ ン夕 フ X ―ス 部 、 のィ ン夕 フ X ス部 に 信可能に された ン ピ 夕 、 C D The computer system 2 includes an interface X-section that has a line communication function for the auxiliary element 11, an interface X that can be communicated with the interface X section, and a CD.
( C o mp a c t Disk ) ― R 〇 Μ ( Read Only memoryノ 、(Compmpt Disk)-R 〇 Μ (Read Only memory,
D V D ( Digital V e r s a t i 1 e Disk) ' の 外部 メ モ を r/ ン ピュ 夕が 冗取可能に セ ッ 卜 で ぎ る外部記憶装 m 、 映像情報お よび付 素子情報 (位置情報 、 セ ン シ ン グ情 報 よ び作動履歴情報の 内 の少な < と も 1 つ ) を 積す る た め の八 ― 丁 ィ ス ク 等の大容里記憶装置お び ン ピ ュ 夕 の ヮ ク ェ ァ と し ての機能 を有する 内部メ モThe external memory of the DVD (Digital Versati 1 e Disk) 'can be set to r / computer so that the external memory can be set in a redundant manner. Video information and attached element information (position information, sensor information, etc.) To store a small part of the operating information and the operation history information), a large storage device such as an eight-cage disk, and a quake of the computer. Internal memo that has the function of
U 等 を有す る コ ン ピ ュ ―夕 本体 2 a (後掲図 2 参照 ) と 、 n ン ピ タ の映像入出力顺子 • 制御 m子にそれぞれ接 続 さ れた第 1 よ び第 2 の動画力 メ ラ 等 と か ら構成 さ れ てお 、 の八 ク X ァ構成に よ り 、 上記各機能構成 手段が具体的 に実現 さ れる Computer with U, etc.-Evening main unit 2a (see Figure 2 below) and the first and second terminals connected to the video input / output terminals of the n Each of the above-mentioned function configuration means is specifically realized by the above-mentioned eight-key configuration.
方 、 付世素子 1 1 の位置情報出力部 1 5 は 、 図 1 に 示すよ う に 、 発光指示命令 を受信する 発光指示卩卩令受信 手段 1 5 a と 、 の発光指示命令受信手段 1 5 a に よ Ό 受信 さ れた発光指示命 に含まれ る識別情報 と識別情報 記 手段 1 4 に記憶 さ れた識別情報 と を 比 する識別情 報比 手段 1 5 と 発光素子 1 5 c と 別情報比 手段 1 5 b の比較結果に応 じ て発光素子 1 5 c に対 し て 発光動作 さ せる発光制御手段 1 5 d と 識別情報記 手 段 1 4 に fl憶さ れた識別情 # を 1¾み出 し て コ ン ピ ~~ タ シス テム 2 に対 して送信する識別情報送信手段 1 5 e と を備えて い る On the other hand, as shown in FIG. 1, the position information output section 15 of the light emitting element 11 includes a light emission instruction purging instruction receiving means 15 a for receiving a light emission instruction instruction, and a light emission instruction instruction receiving means 15. The identification information comparing the identification information included in the received light emission instruction with the identification information stored in the identification information recording means 14. The light emission control means 15d and the identification information mark that cause the light emitting element 15c to emit light according to the comparison result between the information ratio means 15 and the light emitting element 15c and the separate information ratio means 15b. An identification information transmitting means 15 e for extracting one piece of the identification information # stored in the column 14 and transmitting the extracted identification information # to the computer system 2 is provided.
ま た 付帯素子 1 1 の作動部 1 6 は 図 1 に示すよ Ό に 作動命令を受信する作動命令受信手段 1 6 b と の作動叩令受信手段 1 6 b に よ り 受信 さ れた作動命令 に 含 .まれる識別情報 と識別情報記憶部 1 4 に記憶さ れた識 別情報 と を 比較 し 、 その比較結果 に応 じ て作用 子 1 6 a を動作 さ せる識別情報比較手段 1 6 c と 識別情報比 較手段 1 6 c の比較結果に応 じて作動命令受信確き。心信号 お よ び / ま たは作用 素子 1 6 a の実行結果 を表す作用 実 行通知 を π ン ピ ュ ~ 夕 シス テム 2 の受信手段 4 6 へ送信 する 送信手段 1 6 d と を備えて い る  In addition, as shown in Fig. 1, the actuating section 16 of the auxiliary element 11 has an actuation command received by an actuation command receiving means 16b with an actuation command receiving means 16b which receives an actuation command. The identification information included in the identification information is compared with the identification information stored in the identification information storage unit 14, and the identification information comparison means 16c for operating the operator 16a in accordance with the comparison result. The operation command was confirmed to be received according to the comparison result of the ID information comparison means 16c. A transmission means 16d for transmitting a heart signal and / or an action execution notification indicating an execution result of the action element 16a to the reception means 46 of the π-amplitude system 2; There
さ ら に 、 付帯素子 1 1 のセ ン シ ン グ部 1 7 は 図 1 に 示すよ に 、 セ ン シ ン グ指示 を受信す るセ ン シ ン グ指示 受信手段 1 7 b と 、 のセ ン シ ン グ指示受信手段 1 7 b に 受信 さ れた セ ン シ ン グ指示に含まれる識別情報 と 識別情報 B己 '|¾部 1 4 に p己 fe さ れた識別情報 と を比較 し そ の 比較結果 に .応 じ て感知 手段 1 7 a に よ り 咸知 動作 In addition, as shown in FIG. 1, the sensing section 17 of the auxiliary element 11 includes a sensing instruction receiving means 17b for receiving a sensing instruction. The identification information included in the sensing instruction received by the sensing instruction receiving means 17 b is compared with the identification information identified by the identification information B self '| According to the result of the comparison, according to the sensing means 17a, the Hamchi operation was performed.
(セ ンシ ン グ動作) を実行 さ せ る識別情報比較手段 1 7 c と 感知手段 1 7 a の感知結果 (セ ン シ ン グ結果 ) を 感知情報 (セ ン シ ン グ情報) と し て 3 ン ピュ 夕 シス テ ム 2 のセ ン シ ン グ情報受信手段 4 1 へ送信す る咸知情報 送信手段 1 7 d と •a:備えて い る The sensing result (sensing result) of the identification information comparing means 17c and the sensing means 17a for executing (sensing operation) is set as sensing information (sensing information). 3 Computer Haming information transmitting means 17 to be sent to the sensing information receiving means 41 of system 2 17 d anda: provided
なお 、 付 A3*素子 1 1 は 発光 子 1 5 c 、 作用 素子 1 In addition, Appendix A3 * element 11 1 is a light emitting element 15 c, working element 1
6 a お よび感知手段 (セ ンサ ) 1 7 a の 内 の少な < と も6a and sensing means (sensor)
1 Ό の 子 (機 ) -ぉよ び例 え ば 1 チ ッ プ化 さ れた 線 通信機能 を有する ン ピ ュ一タ 回路をそれぞれ搭载 し て お り 、 ( _ の搭載 子あよ び ン ピ ュ タ 回路 に よ り 、 上 述 し た各機能 を実現する よ う にな Ό て い る Each child is equipped with a computer circuit having a line-communication function, for example, one chip. Each of the functions described above is implemented by a computer circuit.
以下 、 図 1 に示す実世界ォブン X ク 口' 識シス テム 1 の全体動作に いて 、 さ ら に 目 体的 に 明す る  Hereinafter, the overall operation of the real-world ob-X system 1 shown in Fig. 1 will be described more specifically.
図 2 に示すよ う に 、 実世界ォブンェ ク 口心識シス テム As shown in Fig. 2, the real world objek
1 にお いて 、 複数の実世界ォブジ ク 〇 a 〇 c に対 してサィ パ 世界を構成す る ン ピ ュ一夕 シス テム 2 に は 、 第 1 の撮像手段 2 2 で あ る 動画力 メ ラ 1 0 3 と 、 の動画力 メ ラ 1 0 3 に取 り 付け ら れ 、 ォブン X ク 卜 O aIn FIG. 1, a computer system 2 constituting a hyper-world for a plurality of real world objects 〇a 、 c is provided with a moving image function as a first imaging means 22. The camera is attached to the camera 103 and the video camera 103 of the camera.
O c に 向 けて発光指示命 を例 え ば I R光 と して送信 する 発光指示命令装置 1 0 5 (発光指示命令送信手段 2A light emission instruction command device that transmits a light emission instruction command to O c, for example, as an IR light 105 (light emission instruction command transmission means 2
1 に相 当 ) と が設け ら れてね り 、 動画力 メ ラ 1 0 3 お よ び発光指 命 装置 1 0 5 は 、 それぞれ ン ピ ュ 夕 本 体 2 a に接 さ れて い る 1), and the moving image camera 103 and the luminous command device 105 are in contact with the computer main body 2a, respectively.
なお 、 本実施形能、では 、 発光指示命令送信手 2 1 で あ る 発光指示命令衣置 1 0 5 は動画力 メ ラ 1 0 3 に取 付け ら れて い る が 、 れに限定 さ れる のでな < 、 動画 力 メ ラ 1 0 3 と は別 の所に け ら れていて も よ い も ので あ る 各ォブン X ク 卜 〇 a 〇 c に は それぞれ 別情報で あ る 識別 I D ( m 1 m m + 1 ) の割 当 て ら れた 付帯 ぺ子 1 1 ( 1 1 a 1 1 b 1 1 c ) がそれぞれ付 帯さ れて い る 各付 W系子 1 1 a 1 1 b 1 1 c は 以下 に 明す る よ Ό に発光指示命 "P 装置 5 か ら の発光指 示 P卩 八を受信でさ こ の発光指示命令 に応答 し て 出 力 さ れる 発光 を動画力 メ ラ 1 0 3 が撮像 し得 る よ う に付帯さ れて い る も のであ る In the present embodiment, the light emitting instruction command device 105, which is the light emitting instruction command sender 21, is attached to the video power camera 103, but is not limited thereto. It is okay to be separated from the video power camera 103 Each of the X-cuts 〇a 〇c has an additional element 1 1 (1 1a1 1b1 1c) to which an identification ID (m 1 mm + 1), which is different information, is assigned. Each of the attached W-systems 1 1a 1 1b 1 1c is associated with a light-emitting instruction "P-pachi-height from the P-device 5 as described below. It is attached so that the moving image camera 103 can capture the light emitted in response to the light emission instruction command.
各才ブジ X ク 0 に付 さ れて い る 付帯 子 1 1 は 発光指示命 装置 5 カゝ ら の発光指示命令 を受信す る 信 手段 (発光指示命八受信手段 1 5 a ) と発光指示命令 に 応答 し て発光する発光素子 1 5 c を有す る 通信手段は、 例え ば R F 受信器 赤外線受光 R F 送受信 赤外 線送受信 な どで構成さ れ ま た発光 子 1 5 C は 例 え ば発光ダィ ォ ド ( L Ε D ) レ ザダィ ォ ― E An accessory 11 attached to each of the light X 1 is a communication means (light emission instruction reception means 15a) for receiving the light emission instruction command from the light emission instruction device 5 and a light emission instruction. The communication means having the light emitting element 15c that emits light in response to the command is, for example, an RF receiver, infrared light receiving, RF transmitting / receiving, infrared transmitting / receiving, and the like. The light emitting element 15C is an example. Light emitting diode (L Ε D) laser ― E
L ( X レ ク 卜 D ル ネ ッ セ ンス ) 子 液晶 子 反射 光 を利用す る ラ 、 光 を放射する 素子な どで構成 さ れ る 本実施形 では 、 通信手段 と しては赤外線受光 を 利用 し 発光素子 と し ては赤外線 L E D を利用 し て い る なお 各付帯素子 1 1 a 1 1 b 1 1 c にそれぞれ割 り 当 て ら れて い る 識別 I D ( m ― 1 m m + 1 ) は 各付 子 1 1 を特定す る ため の番号 と して使用 さ れる が 実際 に は付 子 1 1 を付 し て い る 実世界の各ォ ブン ェ ク h を特定する た め の I D と し て も使用 で ぎ る も ので あ る 画力 メ フ 1 0 3 は 付帯 子 1 1 の 光 子か ら 出 力 さ れる発光波長 に対する感 を有 し の動画力 メ ラIn this embodiment, which is composed of a device that uses reflected light and a device that emits light, this device uses infrared light reception as communication means. Infrared LED is used as the light emitting element.Identification ID (m-1 mm + 1) assigned to each attached element 1 1 a 1 1 b 1 1 c Is used as a number to identify each tag 11, but is actually used to identify each object h in the real world to which the tag 11 is attached. Can still be used Image force film 103 is a moving image force sensor that is sensitive to the emission wavelength output from the photon of incidental member 11.
1 0 3 で撮像 し た 当該動画力 メ ラ の視野領域 1 0 9 の 内 部 に存在する付帯 子 1 1 の映像 旦体的 には後述す るThe image of the accessory 11 existing inside the visual field area 109 of the moving image power camera taken in 103, which will be described later.
J う に付帯素子 1 1 の発光 子か ら の発光像の映像 を 出 力 フ レ ム単位で出力する機能を有する 具体的 に は 動画力 メ ラ 1 0 3 は あ る定め ら れた時間 力 メ ラ 内 の 撮像素子が光を感知 し 1 フ レ ―ム の静止画 と し て 出力 する の 1 フ レ ム の静止画 と し て の 出力動作 を高 で連 的 に繰 り 返 し なが ら 1 フ レ ム の静止画 を 時系列 に順次生成する と に よ り 映像を撮像 し て出力する 'と ができ る の場 の フ レ ム番号 と し て 本実施形態 では図 1 の上部 に フ レ ム周期毎の フ レ ム画像 を 図示 する Ό に n ― 1 n n + 1 が割 り て ら れて い る 本実施形 の 3 ン ピ ュ 夕 シス テム 2 では 図 2 の上 部 に示すよ う に周期的 に繰 り 返 し 生成 さ れる各フ レ ―ムJ has a function to output the image of the light emission image from the light emitting element of the incidental element 11 in units of output frames. Specifically, the moving image power 103 is a power source for a predetermined time. The image sensor in the camera senses light and outputs it as a 1-frame still image.The output operation as a 1-frame still image is repeatedly repeated at a high rate. In this embodiment, the still image of one frame is sequentially generated in time series to capture and output a video. The frame image for each frame period is shown in the figure. In the figure, the upper part of Fig. 2 shows the 3-computer system 2 of this embodiment, in which n-1 nn + 1 is divided. Thus, each frame generated by repeating periodically
( n 一 1 n n + 1 ) の開始時 占 に相 当す る 時刻Start time of (n 1 1 n n + 1) Time corresponding to occupation
··· T m ― 1 T m T m + 1 に 同期 し て 発光指示命 置 1 0 5 か ら 付帯 子 1 1 の識別 I D ( m ― 1 m m + 1 ) を含む発光指 命 TS をォブン ク 卜 〇 の付帯 子 1 1 に向 けて送信す る にな て い る の発光指 示命 を受信 し た付 子 1 1 は 当 該発光指示命 "P に 含まれて い る識別 I D を 分 に割 り 当 て ら れた識別 I D と 比較 し 識別 I D が一致する 合 に は 自 分の発光素 子を発光さ せろ と い 命令であ る と解釈 し 白 分の発光 子 を所定の持続時間だけ発光さ せ る 。 なお、 別 I D が 自 分に割 り 当 て ら れた識別 I D と 異な る ¾ 口 に は 、 発 光さ せない。 ····················································································································· Tm Upon receiving the light-emitting instruction to be transmitted to the antenna 11 of the antenna, the light-emitting device 11 determines the identification ID included in the light-emitting instruction "P". If the IDs match, the command is interpreted as an instruction to cause the own light-emitting element to emit light, and white light is emitted. The child is caused to emit light for a predetermined duration. In addition, do not emit light to an opening that is different from the identification ID to which the other ID is assigned.
す な わ ち 、 図 3 に 示す よ う 【こ 、 ま ず フ レ ム ( n ― That is, as shown in Fig. 3, [First, the frame (n-
1 ) の 開始時ハ占、ヽに相 当す る時刻 T m - 1 にあ いて識別 I1) at the start of the process, and at time Tm-1 which corresponds to 識別, identification I
D ( m 一 1 ) を含む発光指示命令 ( I D = m 一 1 ) が ン ピ ュ 一夕 シス テム 2 の発光指示命令装置 1 0 5 か ら 送 信 さ れ る と ( 図 4 ; ス テ ッ プ S 1 )、 こ の発光指示命令When a light emission instruction command (ID = m-1) including D (m-1) is transmitted from the light emission instruction command device 105 of the amp system 1 (FIG. 4; step). S1), this flashing instruction command
( I D = m — 1 ) に対 し て識別 I D ( m - 1 ) の付帯 子 1 1 a がその識別情報比較手段 1 5 b の比較処理 に基 づい て応答 し 、 し の付帯素子 1 1 a の発光 子 1 5 c は、 図示 の よ う に 、 上記発光指示命令 に基づ く I D = m ― 1 に対応付け ら れて設定さ れた発光持続時間 ( I D m ―In response to (ID = m—1), the adjunct 11a of the identification ID (m-1) responds based on the comparison processing of the identification information comparing means 15b, and the adjunct element 11a As shown in the figure, the light-emitting element 15c of the light-emitting element 15c has a light-emitting duration (IDm--1) set in association with ID = m-1 based on the light-emitting instruction command.
1 発光持続時間) だけ発光する (ス テ ッ プ S 2 Flash for only one flash duration (Step S2)
次 の フ レーム ( n ) が開始する と 、 こ の 開始時ハ占、ヽ に相 当す る 時刻 T mにお いて識別 I D ( m ) を含む発光指示 命令 ( I D = m ) が発光指示命令装置 1 0 5 か ら 送信 さ れ ( ス テ ッ プ S 3 )、 こ の発光指示命令 ( I D = m ) に 対 し て識別 I D ( m ) の付帯素子 1 1 b がその識別情報 比較手段 1 5 b の比較処理 に基づいて応答 し 、 の付帯 素子 1 1 b の発光素子 1 5 c は図示の よ う に 、 上記発光 指示命令 に基づ く I D = m に対応付け ら れて設定 さ れた 発光持続時 間 ( I D = m発光持続時 間) だ け発光す る When the next frame (n) starts, at the start time, at a time Tm corresponding to ヽ, a light emission instruction command including an identification ID (m) is issued (ID = m). Transmitted from the device 105 (step S 3), in response to the light emission instruction command (ID = m), the auxiliary element 11 b of the identification ID (m) is transmitted to the identification information comparing means 1. The light emitting element 15c of the incidental element 11b is set in association with ID = m based on the light emission instruction command as shown in the figure. Flash only for the flash duration (ID = m flash duration)
(ス テ ッ プ S 4 )。 (Step S4).
更 に次の フ レ一ム ( n + 1 ) が開始する と 、 の 1开]始 時 占 に相 当 す る 時刻 T m + 1 1;こ お い て識別 I D ( mWhen the next frame (n + 1) starts, 1 开 The time corresponding to the time occupation Tm + 1 1 1;
1 ) を含む発光指示 叩 T3 、 I D = m + 1 ) が発光指示命 装 β 1 0 5 か ら 送信 さ れ (ス テ ツ プ S 5 ) の発光 指示命令 ( I D = m + 1 ) に対 して識別 I D ( m + 1 ) の付帯素子 1 1 c がそ の識別情報比較手段 1 5 b の比較 処理 に基づいて応答 し 、 こ の付 f 糸子 1 1 c の発光素子The light emission instruction tap T3 including ID 1) and ID = m + 1) are transmitted from the light emission instruction instruction β105 to the light emission instruction command (ID = m + 1) in (Step S5). Then, the incidental element 11c of the identification ID (m + 1) responds based on the comparison processing of the identification information comparing means 15b, and the light emitting element of the
1 5 c は図示のよ う に 、 上記発光指示命令 に基づ < I DAs shown in the figure, 15 c is <ID based on the light emission instruction command.
= m + 1 に対応付け ら れて e 疋 さ れた発光持 時間 ( I= m + 1 and the emission duration (I
D = m + 1 発光持続時 間 ) だ け発光す る ( ス テ ッ プ SD = m + 1 Flash duration only (flash duration) (Step S
6 )。 6).
なお 本実施形態では、 各付 fff ¾子 1 1 の発光素子に よ る 発光は 発光開始 フ レ ム の始めか ら 次の フ レ ―ム の始め に僅か に食い込んで重複 してカゝ ら 了 し 各 フ レ ム の始め にお いては 刖 の フ レ ム の発光 と次の フ レ ム の発光 と が重複 し てい -0 0  In the present embodiment, the light emitted by the light emitting element of each of the fff elements 11 slightly overlaps from the start of the light emission start frame to the start of the next frame. At the beginning of each frame, the emission of frame 刖 overlaps the emission of the next frame.
ま た 上記各付帯素子の発光素子 に よ る発光は 予め 設定 さ れた発光持続時間 にお い て発光す る のではな < 全て の発光 子が同一の発光持 時間 に よ 発光 し て も よ ぐ それぞれの付帯素子毎に任意の時間で発光 し て ち よ い o  In addition, the light emitted by the light emitting element of each of the above-mentioned incidental elements does not emit light for a preset light emission duration.Even if all light emitting elements emit light with the same light emission duration. O Each device may emit light at any time o
以上の動作を繰 り 返す こ と に よ り 、 各付帯素子 1 1 の 発光素子は発光指示 W - 1 置 1 0 5 カゝ ら 順次送信 さ れる 発光指示命令に応答 して順次発光す る と にな の 各付 素子 1 1 の発光素子か ら の発光は 動画力 メ ラ 1 By repeating the above operation, the light emitting element of each of the attached elements 11 1 emits light sequentially in response to the light emitting instruction command sequentially transmitted from the light emitting instruction W-1 105. Light emission from the light-emitting element of element 11
0 3 で受信 さ れる (ス テ ツ プ S 7 ) 。 すなわ ち 動画力 メ ラ 1 0 3 は 付 子 1 1 の 光 子か ら の 光の波 長 に感度 ^有 してい る ため その発光像を撮像す る と がで き その結果を 出力 フ レ ム画像 と して出力す る と がでさ る o 従 て ン ピ ュ 夕 シス テム 2 にお い て は の各 フ レ ム毎に動画力 メ ラ 1 0 3 か ら 出 力 さ れ る 出力 フ レ ム画像上の各画 での信号強度を調 'ベ る と に よ り 、 発光指示命令に含ませて指定 さ れた識別 I D の付帯素子 1 1 の発光素子の力 メ ラ 視野内での位置 (位 It is received at 03 (step S7). That is, video power Since the lens 103 is sensitive to the wavelength of the light from the photon of the appendix 11, it can capture its emission image, and the result is used as the output frame image. O Therefore, in the computer system 2, the output frame image output from the moving image camera 103 for each frame in the computer system 2 By adjusting the signal strength in each image of the above, the position of the light emitting element of the incidental element 11 having the identification ID specified by being included in the light emitting instruction command in the visual field (position)
- 置座 ) を 知 る . と 、 す な わ ち 特定す る と がで さ る -Identify the identity of the constellation)
(ス テ ッ プ S 8 )。 (Step S8).
M.体的 に は ン ピュ 夕 シス テム 2 は 動画力 メ ラ M. Physically, the computer system 2 is a video camera
1 0 3 発光指示命令装置 1 0 5 お よび対応付け手段 21 0 3 Flash command device 1 0 5 and associating means 2
5 に よ る協 e周動作に よ り 発光指示命令装置 1 0 5 が発 光指示命令で指定 し た付帯素子 1 1 の識別 I D を知 る と がでさ る ため の識別 I D と 動画力 メ ラ 1 0 3 の 出 力 フ レ ム画像の フ レ ム番号 と の対応を取る と に よThe light emitting instruction command device 105 recognizes the identification ID of the incidental element 11 specified by the light emitting instruction command by the cooperation operation of 5 and the identification ID and moving image information. The correspondence with the frame number of the output frame image of
Ό 出 力 フ レ ム画像の フ レ ム番号か ら 対応する 識別 I識別 Identification corresponding to the frame number of the output frame image I
D の付 素子 1 1 の発光位置 を知 る とがでさ る Appears the emission position of element 11 with D
そ して 、 上述 し た よ う に特定 さ れた付 w素子 1 1 の位 置か ら 当該付帯 ^1 子 1 1 が付帯さ れてい る ォブン X ク Then, at the position of the attached w element 11 specified as described above, the associated ^ 1 element 11 is attached to the object X
〇 の位置 を知 る と がでさ のォブン X ク 卜 o の位置 を サィ バ―世界を構成する ン ピ ―夕 システム 2 に お いて 。心誠、 すなわち 上記位置 を有する ォブジ X ク 卜 o と し てサィ バ 世界に結 Π さ せる と がでさ る Knowing the position of 〇, the position of the X-ray o-Xo o is located on the system that composes the server world. Sincerely, that is, to connect to the world of saba as X-o
上記実施形 では 世界の各ォブン ェ ク O に付 子 1 1 を付帯さ せ 付帯 子 1 1 が 光指不命令 In the above embodiment, it is attached to each obec Attach child 1 1 1 1
1 0 5 か ら の発光指示命令を受信 し て 識別 I D が 致 し た場 に発光 し し の発光を動画力 メ ラ 1 0 3 で撮像 し て発光ハ占、ヽの位置 を実世界ォブン ェ ク 卜 の位置 と し て特 定 し の実世界ォブジ X ク 卜 の位置を識別 I D で特定 さ れる 3 ン ピ ュ 夕 シス テム 2 (サィ バ一世界 ) の ォブ ン X ク 卜 に結 a し て い る 従 て 例え ば人 物 環境 な ど の実世界のォ ブン X ク 卜 が引 き起 す様 な 出来事 を U ァル夕 ィ ム にサィ パ ―世界の対応す る ォブン X ク 卜 に でき コ ン ピ ュ 夕 ネ ッ 卜 ク を活用 し た様々 な 曰 吊 生活 に密着 したサ ビス を創生する と がで ぎ る 。  When the light emission instruction command is received from 105 and the identification ID matches, the light emitted from the camera is captured by the video camera 103, and the position of the light emission is occupied. The position of the real world object X specified as the position of the object is linked to the object X object of the three-computer system 2 (server world) specified by the identification ID. Therefore, events that cause the real world's Xbox, such as the human environment, to be triggered, are sent to the U.R. It is possible to create a variety of services that are closely related to hanging life using computer evening networks.
本実施形態、のォ ブジ X ク 卜 to □ 方法では 例 え ば家庭、 商店 ォ フ ィ ス の 角な ど の一辺が例 え ば 1 0 m程 以 内 の空間で あ る 曰 常の生活 間 にお い て人間が目 でき 識 で ぎ る速 さ で動 < ォブン X ク 卜 も 含め て 識する と が で ぎ かつサィ パ ―世界を構成す る ン ピ ュ 夕 シス テ ム が口' 識 し て い る 状も  In this embodiment, the method of object X-cut to □ is such that, for example, one side of a corner of a home or a store office is, for example, a space of about 10 m or less. In humans, it can be seen at a speed that can be seen and perceived by humans, including the observable X-cuts. What you are doing
目、 to l は人間が観察 し て い る 実世界の ォ プン ェ ク の映像 と相 関 を持つ て モ タ U ン グ表示でさ 、 ォ ブン X ク 卜 の識別 I D と位置き口' 識時ハ占、ヽは映像か ら 派生 す る 映像ベ ス の ンテ ンッ と 時間的 に 期 して い る ち ので め る ま た ォブン X ク 卜 〇 に付帯する 付 素子 1 The eyes, tol, are motorized displays that correlate with real-world opponent images that humans are observing, such as the identification ID and location of the Xbox X-Cut. The time element is attached to the X-box which is related to the content of the video base derived from the video.
1 は 小 ¾で 消費電力が小 さ < 安価な も ので あ る 1 is small and low power consumption <cheap
図 3 は 図 2 に示 し た も to  Fig. 3 is shown in Fig. 2
実施形 にお いて各付帯素子 1 Each ancillary element in the embodiment 1
1 の発光素子か ら の発光像 を撮像 した動画力 メ ラ 1 0 3 の 出力 フ レ ム画像 ( フ レ ム毎の画像丁 ―夕 ) を 図示 し てい る ¾ ので あ る なお 図 3 にお いて 光指 7^命 置 1 0 5 か ら の発光指示命令の 出力 夕 ィ ン グ 各 付 ■ Illustrates the frame image output from camera 103 (image frame for each frame-evening) Note that in Fig. 3, the output of the light emission instruction command from the light finger 7 ^ position 105 is shown in Fig. 3.
fff 素子 1 1 の発光素子か ら の発光持 時間な ど は図 1 と 同 じで あ る  fff The emission time from the light-emitting element of element 11 is the same as in Fig. 1.
図 3 にお いて 発光指示命 "P 装置 1 0 5 か ら フ レ一ム In Fig. 3, the light emission instruction "P
( n ― 1 ) の 開始時 占 に 1口■!期 して時刻 T m 1 に 出力 さ れる発光指示命令 ( I D = m ― 1 ) に応答 し て付帯素子In response to a light emission instruction command (ID = m-1) output at time Tm1 at the beginning of (n-1)
1 1 a の発光素子か ら 出力 さ れる発光は 動画力 メ ラ 1The light emitted from the light emitting element of 1a is a moving image.
0 3 で撮像さ れ 同図に いて フ レ ―ム画像 n 一 1 と し て 出力 さ れる の動画力 メ ラ 1 0 3 か ら 出力 さ れた フ レ ム画像 n ― 1 に は 付帯素子 1 1 a の発光 々子か ら の発光像が符 I 3 a で示すよ う に 円形で示さ れて い る なお の フ レ ―ム画像にお け る 発光像 I 3 a の 円形の 大さ さ は 本的 に は動画力 メ ラ 1 0 3 が受光 し た発光 の Xネルギ (強度 ) の時間的な積分値を表わ し て い て 具体的に は発光が強い ほ ど ま た時間が長 < あ た つ て い る ほ ど 円形の直径が大き < な る Ό に図示 して い るThe video image taken at 0 3 and output as a frame image n-1-1 in the same figure is attached to the frame image n- 1 output from 03. The emission image from the luminous element of 1a is shown as a circle as indicated by the reference symbol I3a.The size of the emission image I3a in the frame image in the frame image. Represents the temporal integration value of the X-ray energy (intensity) of the luminescence received by the moving image camera 103. Specifically, the longer the luminescence is, the longer the time is. <The larger the diameter of the circle, the more <
|p]様に し て 発光指示命 n 装置 5 か ら フ レ ム ( n ) の 開始時 占 に 1口 J期 して時刻 T mに 出力 さ れる発光指示命 τι ( I D m ) に応答 して付帯素子 1 1 b の発光素子か ら 出力 さ れる 発光 は 動画力 メ ラ 1 0 3 で撮像さ れ フ レ ム画像 n に発光像 I b と して 出力 さ れる が の フ レ ム画像 n に は付 素子 1 1 b の発光素子か ら の発光 に対応する 発光像 I b の他 に の フ レ ム ( n ) の始 め に僅か に重 し て発光 し て い る 付 素子 1 1 a の発光 子か ら の発光に対 J心する 光 1冢 I a も 小 さ い 円 形で 図示さ れて い る れは 付帯素子 1 1 b の発光素子か ら の発光がフ レ ム ( n ) の全期間 にわた つ て発生 し て い る の に対 して 付帯素子 1 1 a の発光素子カゝ ら の発光 は フ レ ム ( n ) の始め に重複 して僅かな時間だけ発光 し て い る か ら 、 発光像 I a が小 さ < 発光像 I b が大 き < な て い る ので あ る なお の発光像 I a は 発光像 I b に対 して は ノ ィ ズ と な つ て い る も ので あ る 同様に 発光指示命令装置 1 0 5 か ら フ レ ム ( n +In response to the light emission instruction τι (ID m) output from the light emission instruction n device 5 at time T m during the first J period at the start of frame (n), as described in | p]. The light emitted from the light-emitting element of the incidental element 11b is captured by the moving image camera 103 and is output as the light-emitting image Ib in the frame image n. In addition to the emission image Ib corresponding to the emission from the light emitting element of the element 11b, the element 11a emits light with a slight overlap at the beginning of the frame (n). Luminescence The light emitted from the light emitting element of the incidental element 11b is also indicated by a small circle, and the light emitted from the light emitting element of the incident element 11b is of the frame (n). The light emitted from the light-emitting element card of the incidental element 11a emits light only for a short time at the beginning of the frame (n), while the light is emitted over the entire period. Therefore, the luminescence image Ia is smaller than the luminescence image Ib and the luminescence image Ia is smaller than the luminescence image Ib. In the same way, the frame (n +
1 ) の開始時点に 同期 して時刻 T m + 1 に 出力 さ れる 発 光指示命 ( I D = m + 1 ) に応答 して付帯素子 1 1 C の発光 子 ら 出力 さ れる 発光は 動画力 メ ラ 1 0 3 で ョ-像 さ れ フ レ ム画像 n + 1 に発光像 I c と し て 出 力 さ れる が こ の フ レ ム画像 η + 1 に は付帯素子 1 1 C の発光素子カゝ ら の発光 に対応する 発光像 I c の他 に 、 の フ レ ム ( n + 1 ) の始め に僅か に重複 して発光 し て い る 付 素子 1 1 b の発光 子か ら の発光 に対応する 発 In response to the light emission instruction (ID = m + 1) output at time Tm + 1 in synchronization with the start of 1), the light output from the light emitting element of the incidental element 11C is a moving image. The frame image n + 1 is output as a light emission image I c on the frame image n + 1, and the frame image η + 1 has a light emitting element In addition to the luminescence image I c corresponding to the luminescence of the above, the luminescence from the luminous element of the attached element 11 b that slightly overlaps the luminescence at the beginning of the frame (n + 1) Corresponding outgoing
- 光像 I b も 小 さ い 円 形で図示さ れて い る 。 なお の 発光像 I b は ^光像 I c に対 し ては ノ ィ ズ と な つ て い る も のであ る  -The light image Ib is also shown as a small circle. Note that the emission image Ib is noise with respect to the ^ light image Ic.
図 5 は 図 3 に示 し た よ う に動画力 メ ラ 1 0 3 の フ レ ム画像 に ノ ィ ズ と し て現れた発光像 I 3 a I 3 b を 1 つ 刖 の フ レ一ム画像 と の減算 (差分) 処理 に よ ΰ 除去する差分処理 を説明する ため の 図であ る  Fig. 5 shows the emission image I3aI3b that appeared as noise in the frame image of the moving image camera 103 as shown in Fig. 3 as a single frame. FIG. 9 is a diagram for explaining a difference process for removing by subtraction (difference) with an image.
図 5 に示すフ レーム画像 n n + 1 に は、 図 3 で説明 し た よ う に ノ ィ ズ と な る 発光像 I 3 a 1 3 b が 現れて い る が の ノ ィ ズ と な る 発光像を 除去す る た め に ン ピ ュ 夕 シス テム 2 は、 図 5 にお け る 例ではThe frame image nn + 1 shown in Fig. 5 is explained in Fig. 3. As shown in the figure, the emission image I 3a1 3b appears as a noise, but in order to remove the emission image as a noise, the computer system 2 is used. In the example in Figure 5,
1 つ前の フ レ ム画像 と の減算処理 を行な て い る 例 え ば 識別 I D m の付帯素子 1 1 b (ォブン X ク 卜 〇 b ) の位置を 同定する ため の フ レ ム画像 n に ノ ィ ズ と し て現れて い る発光像 I 3 a を除去す る た め にFor example, a subtraction process from the previous frame image is performed. For example, a frame image n for identifying the position of the incidental element 1 1b (obtain X cut 〇b) with the identification ID m In order to remove the emission image I 3a appearing as noise in
3 ン ピ ュ タ シス テム 2 は、 ノ ィ ズ処理手段 2 3 に り 当 該フ レ ム画像 n か ら 1 つ前の フ レ ―ム画像 n 一 1 を 減算 し ( 図 6 ス テ ッ プ S 1 0 ) の減算結果 と し て 残 Ό て い る 所定値以下の画素信号をゼ 口 すなわ ち 信 に し ( ス テ ッ プ S 1 1 ) こ れ に よ り 識別 I D m の 付 子の発光 子か ら の発光像 I b の みが存在す る識 別 I D m のォブン X ク 卜 に関する 差分画像 1 2 1 a b を得て い る も の で あ る 従っ て、 の差分画像 1 2 1 a b か ら δ哉別 I D m の付帯素子 1 1 b (ォブン X ク 卜 O b ) の位置を ノ ィ ズに影響さ れる と な < 適確に特定す る と がで さ る The computer system 2 subtracts the previous frame image n-11 from the corresponding frame image n by the noise processing means 23 (see FIG. 6). The remaining pixel signal of a predetermined value or less is subtracted as a result of the subtraction of S 10), which is referred to as a signal (step S 11). The difference image 1 2 1 ab is obtained for the Xb of the identification ID m in which only the luminescence image I b from the luminous element I b exists. Therefore, the difference image 1 2 From 1 ab, it is possible to accurately identify the position of the incidental element 1 1 b (Obn X cut Ob) of ID m according to the ID m according to the noise.
同様 に 識別 I D m + 1 の付帯素子 1 1 c (ォ ブン Similarly, the incidental element 11c (identified by ID m + 1)
X ク 卜 ο c ) の位置を 同定する た め の フ レ ―ム画像 n + Frame image n + for identifying the position of X-cut ο c)
- -
1 に ノ ィ ズ と し て現れて い る 発光像 I b を 除去す る た め に コ ン ピ ュ 夕 シス テム 2 は ノ ィ ズ処理手段 2 3 に よ り 当 該フ レ ム画像 n + 1 か ら 1 つ の フ レ ム 画像 n 減算 し (ス テ V プ S 1 ) の減算 果 と し て 残 つ て い る 所定値以下の画素信号 を無信 に し ( ス テ ッ プ S 1 3 ) 、 こ れ に よ り 識別 I D = m + l の付帯 子の 発光素子か ら の発光像 I c のみが存在する 識別 I D = mIn order to remove the luminescence image Ib which appears as noise in FIG. 1, the computer system 2 uses the noise processing means 23 to remove the emission image Ib. One frame image n is subtracted from 1 (Step S 1), and the remaining pixel signals of a predetermined value or less are silenced (Step S 1). Step S 13), whereby the identification ID = m in which only the emission image I c from the light emitting element of the accessory with the identification ID = m + l exists
+ 1 のォブジ X ク ト に関する差分画像 1 2 1 b c を得て い る も ので め る 。 従っ て、 こ の差分画像 1 2 1 b c か ら 識別 I D = . + 1 の 付帯素子 1 1 c ( ォ ブ ジ ェ ク 卜 〇The difference image 1 2 1 b c for the +1 object X is obtained. Therefore, from the difference image 1 2 1 b c, the auxiliary element 1 1 c (object 〇) with identification ID =.
C ) の位置 を ノ ィ ズに影響さ れる こ と な く m確に特定す る と がでさ る The position of C) can be accurately determined without being affected by noise.
以上の 明では差分処理の対象 と して フ レ ム画像信 強 を 1 • 1 と し たが、 任意の強度比率で の差分処理 も有効で る の は言 う まで も な レ 。  In the above explanation, the frame image signal strength is set to 1 • 1 as the target of the difference processing, but it goes without saying that the difference processing with an arbitrary intensity ratio is also effective.
図 7 は 、 図 3 に示 し た よ う に動画カ メ ラ 1 0 3 の フ レ 一ム画像に ノ ィ ズ と して現れた発光像 I 3 a 、 I 3 b を 図 5 と は別 の減算処理 に よ り 除去す る 差分処理 を 明す る ため の 図であ る 。  FIG. 7 shows the emission images I3a and I3b that appeared as noise in the frame image of the moving image camera 103 as shown in FIG. FIG. 9 is a diagram for illustrating a difference process that is removed by a subtraction process.
図 7 に示す減算処理 と し て、 コ ン ビユ ー 夕 シス テム 2 は 、 付帯素子 1 1 の位置を特定 し よ う と する注 巨 フ レ ム画像の信号強度 を 2 倍 し 、 こ の 2 倍 し た フ レ一 ム画像 か ら 後の フ レ —ム画像 を減算する も のであ る  As the subtraction processing shown in FIG. 7, the convenience display system 2 doubles the signal intensity of the giant frame image for identifying the position of the incidental element 11 and doubles it. Subtracts the subsequent frame image from the doubled frame image.
体的 に は 、 コ ン ピ ュ ー タ シス テム 2 は 、 識別 I D mの付帯素子 1 l b (オブジェ ク ト 〇 b ) の位置 を 同定 す る た め の フ レーム画像 n に ノ イ ズ と して現れて い る 発 光像 I 3 a を除去する た め に 、 ノ イ ズ処理手段 2 3 に よ Ό 、 当該 フ レーム画像 n を 2 倍 し てか ら 1 前の フ レ Specifically, the computer system 2 uses the noise in the frame image n for identifying the position of 1 lb (object 〇b) of the incidental element having the identification ID m. In order to remove the emitted light image I3a that appears, the noise processing means 23 causes the frame image n to be doubled and the frame immediately before the frame image n to be doubled.
―ム 画 像 n ― 1 と 1 つ 後 の フ レ ー ム 画像 n + 1 を 減算-N image n-1 minus the next frame image n + 1
( 図 8 ス テ ッ プ S 2 0 )、 すなわ ち 注 目 フ レ ム画像 ( n ) X 2 { フ レーム画像 ( n - 1 ) + (後 フ レ ム 画像 ( n + 1 ) ] \ な る 減算 を行 い 、 の減算結果 と し て残つ て い る所定値以下の画 信号をゼ 口 、 すなわち 信号 に し ( ス テ y プ S 2 1 ) こ れ に り 識別 I D = m の付帯素子の発光素子か ら の発光像 I 3 b のみが存在す る 識別 I D mのォブジ ェ ク h に関する差分画像 1 2 1 a b c を てい る (Fig. 8 step S20), that is, the frame image of the attention (n) X 2 {frame image (n-1) + (post-frame image (n + 1)] \ subtraction is performed, and the subtraction result is equal to or less than a predetermined value. The image signal is turned into a signal, that is, a signal (step S21), whereby only the emission image I3b from the light-emitting element of the incidental element having the identification ID = m exists, and the identification ID m The difference image 1 2 1 abc related to the object h
従つ て の差分画像 1 2 1 a b c か ら 識別 I D = m の付帯 子 1 1 b (ォブン ェ ク 卜 〇 b ) の位置を ノ ィ ズ に影響さ れる と な く 適確に特定する と がでさ る  Therefore, it is possible to accurately specify the position of the accessory 11b (observer 〇b) with the identification ID = m from the difference image 12 21 abc without being affected by noise. Out
同 に 識別 I D = m + 1 の付帯素子 1 1 c (ォブジ ェ ク 卜 〇 c ) の位置を 同定する ため の フ レーム画像 n + Similarly, a frame image n + for identifying the position of ancillary element 11 c (object 〇c) with identification ID = m + 1
1 に ノ ィ ズ と し て現れて い る 発光像 I b ' を除去す る た め に、 ン ピ ュ ―夕 シス テム 2 は ノ ィ ズ処理手段 2 3 に よ り 当 該フ レーム画像 n + 1 の信号強度を 2 倍 し て か ら 1 つ 刖 の フ レーム画像 n と 1 つ後の フ レーム画像 nIn order to remove the emission image I b ′ appearing as noise in FIG. 1, the pump-evening system 2 is controlled by the noise processing means 23 to obtain the frame image n. + 1 signal strength is doubled, then one frame image n and the next frame image n
+ 2 を減算 し すなわ ち 注 目 フ レーム画像 ( n + 1 ) X+ 2 is subtracted, that is, the frame image (n + 1) X
2 一 ( フ レ ム画像 ( n ) + (後フ レー ム画像 ( n +2 One (frame image (n) + (back frame image (n +
2 ) ) な る 3或算 を行 い 、 こ の減 % 口 と し て残 つ て い る 所定値以下の画素信号を 無信号に し 、 れに よ Ό 別 I2)) Calculate the following 3 or 2 and make the remaining pixel signal below the predetermined value as a% reduction signal no signal, and
D = m + 1 の付 w素子の発光 子力 ^ ら の発光像 I b の み が存在する 識別 I D = m + 1 のォブジ X ク 卜 に関す る 差 分画像 1 2 1 b c d を得て い る (ス テ V プ S 2 2 S 2Only the luminescence image Ib of the element w of the element w with D = m + 1 exists. The difference image 1 2 1 bcd for the obscure X cut with the identification ID = m + 1 is obtained. (Step V S 2 2 S 2
3 参照 )。 3).
従つ て の差分画像 1 2 1 b e d か ら 識別 I D = m + 1 の付帯 子 1 1 c (ォブン X ク 卜 O c ) の位 を ノ ィ ズに影響さ れる と な < 適確に特定する と がでさ る 以上の 明では両側差分処理の対象 と な る フ レ ム画像 に対 して注 巨 フ レ ム画像対隣接フ レ ム画像の信号強 度比申 を 2 • 1 と し た例 を示 し たが 任 の強度比率で 有効であ る事は う まで ち な い Identification ID = m from the difference image 1 2 1 bed The position of the + 1's accessory 1 1 c (Ob X X O c) is affected by noise. <It is not possible to specify the position accurately. In this example, the signal intensity ratio between the giant frame image and the adjacent frame image was set to 2 • 1 for the frame image that was used. I don't know
上述 し た 図 5 お よ び図 7 に示 し た減算処理は 所望 の 識別 I D の付帯素子か ら の発光の影 を除去する も の と し て §兌明 し たが 当該減算処理は の よ な発光の影 響 を除去す る ため だけでな < 様 な ノ ィ ズ源か ら の ノ ィ ズな ど を 除去する た め に有効な の であ る 例 え ば 太陽光な ど の 自 然光や最近数が 速に増えた電子機 類 の U モ ン装置な どか ら の モ ン信号な ど も ノ ィ ズ と し て現れた場 α れ ら を除去する の に有効であ る  The subtraction processing shown in FIG. 5 and FIG. 7 described above is supposed to remove the shadow of light emission from the incidental element having the desired identification ID, but the subtraction processing is particularly effective. It is effective not only for removing the effects of various light emissions, but also for removing noise from such noise sources.For example, natural light such as sunlight. It is effective to remove noise and other fields that appear as noise, such as light and mon signals from electronic devices such as U-monitors, whose numbers have increased rapidly in recent years.
図 9 は 図 5 お よ び図 7 で行われた差分処理で 付帯 子 1 1 の発光 子の発光信号以外 に例え ば太陽光 照 明な ど の発光源か ら の ノ ィ ズ信号が残 つ て し ま つ た  Fig. 9 shows the difference processing performed in Figs. 5 and 7, and in addition to the emission signal of the illuminant of the incidental element 11, the noise signal from the illuminant such as sunlight is left. Teshimatsu
の よ Ό な ノ ィ ズ信号を除去する 固定空間 フ ィ ル夕処理 を §兌明する ため の 図で め る  The figure for §convertible fixed space file processing that removes noise signals like
すなわ ち 図 9 の空間 フ ィ ル夕処理にお いては ン ピ ュ タ シス テム 2 は 図 5 お び図 7 で得 ら れた差分 処理後フ レ ム画像 n に対 して空間 フ ィ ル夕処理 を施す 例 を示 してい る  That is, in the spatial file processing shown in FIG. 9, the computer system 2 uses the spatial filter for the difference-processed frame image n obtained in FIGS. 5 and 7. Shows an example of performing the lunar processing
の空間 フ ィ ル夕処理では ン ピ ュ タ シス テム 2 は ノ ィ ズ処理手段 2 3 に よ Ό 分処理後フ レ ム画 f象 η の左上隅 に フ ィ ル夕 サイ ズを示す四角形の被 フ ィ ル 夕 U ン グ範囲 1 2 6 の 中 の全画素の信号強 値をすベて 加算 し ( 図 1 0 ス テ ッ プ S 3 0 ) 、 そ の加算 し た和 を 画 数で割 る と に よ り 、 こ の被 フ ィ ルタ U ン グ範囲 1In the spatial filter processing of the computer, the computer system 2 uses the noise processing means 23 to perform the frame processing after the partial processing. In the upper left corner of the f-elevation η, add the signal strength values of all the pixels in the rectangular filed U-ring range 1 26 that indicate the file size to the sum (Figure 10). By dividing the sum by the number of strokes, the filtered U
2 6 内の平均値 を被 フ ィ ルタ リ ン グ範囲 1 2 6 内 の各画 素 の信号強度 と し (ス テ ツ プ S 3 1 ) 被 フ ィ ル タ リ ン グ範囲 1 2 6 を矢印 1 2 5 で示す方向 に移動 さ せなが ら ス テ ッ プ S 3 0 S 3 1 の処理を差分処理後フ レ ム画 像 n の全領域 に つ いて実行す る (ス テ ' プ S ; 3 2 ) な お の場 n の空間 フ ィ ルタ処理では、 フ ィ ルタ サィ ズを越えて広 < 分 する 画像の信号強度は低減さ れる の Ό な空間 フ ィ ルタ 処理の 果、 空間 フ ィ ルタ 処 理後フ レ ム画像 n 1 2 4 が得 ら れる が の空間 フ ィ ル夕処理後 フ レ ―ム画像 n 1 2 4 で は、 も と と 局所的 に強度が大さか た付帯素子 1 1 の発光素子の発光信号 が強 さ れ 広 < 分布 し強 く な い ノ ィ ズ信号が弱め ら れ る の結果 ン ピ 夕 シス テム 2 は 所望の発光 素子の発光信号 と ノ ィ ズ信号 と の強度差が広がる た め その強度 に応 じ て優先順位をつ ける こ と が可能 と な る 図 9 に示す例では 付帯素子 1 1 の発光 子の発光信 号が優先順位 1 位 右下隅の ノ ィ ズが優先順位 2 位 中 央の ノ ィ ズが優先順位 3 位 と決め ら れる そ で ン ピ ュ 夕 シス テム 2 は 、 優先順位の高 レ も の を付帯 子The average value in 26 is used as the signal strength of each pixel in the filtered range 1 26 (Step S31) .The filtered range 1 26 is While moving in the direction shown by the arrow 1 25, the processing of steps S 30 S 31 is executed for the entire area of the frame image n after the difference processing (step S 3 2) In the spatial filter processing of the field n, the signal strength of the image that is spread over the filter size is reduced. As a result of the spatial filter processing, the spatial filter processing is performed. The filtered frame image n1 24 is obtained after filtering, but the spatial image after frame processing n1 24 is originally ancillary with locally increased intensity. The light emission signal of the light emitting element of element 1 is strengthened, and the noise signal which is not widely distributed and not strong is weakened. Since the difference in intensity from the signal is widened, it is possible to assign priorities in accordance with the intensity. In the example shown in FIG. 9, the light emitting signal of the light emitting element of the incidental element 11 has the priority 1 The noise in the lower right corner is the second highest priority. The center noise is the third highest priority.So, the low-priority system 2 has the highest priority.
1 1 の発光素子か ら の発光信号画像 と 判定する と に よ 先順位 1 位の座標 を所望のォブジ ェ ク O に付帯 さ れてい る 付世 子 1 1 の 光 子の発光 占位 すな わ ち 付帯素子 1 1 の位置、 引 いて はォブン X ク 卜 o の位 置 と判定する とができ る (ス テ ッ プ S 3 3 ) When the image is determined to be a light emission signal image from the light emitting element of No. 1, the first coordinate is added to the desired object O Emission occupation of the photon of the attached element 11 can be determined as the position of the attached element 11, that is, the position of the X-box X (step S 3 3)
図 1 1 は 図 9 で Ski明 し た空間 フ ィ ル夕 処理の代わ り にパ 夕 ―ンマ チ ン グ処理 を利用 して 図 5 お よ び図 7 で行 た差分処理後にお いて ち付帯素子 1 1 の発光素子 の発光信 以外に残 て いた例え ば太陽光 照明な ど の 発光源か ら の ノ ィ ズ信号 を除去する パ 夕 ンマ ッ チ ン グ 処理 し < は 円錐形定義パ 夕 ンマ チ ン グ処理 を 兑明する ため の 図で あ る  Figure 11 shows an example of using the spatial matching process instead of the spatial filter process shown in Fig. 9 for skiing. Element 11 Other than the light emission signal of the light-emitting element, for example, noise matching from a light source such as sunlight lighting is removed.Pattern matching processing is performed. It is a diagram for explaining the unmatching process.
すなわ ち 図 1 1 のパ夕 ンマ ッ チ ン グ処理で は 図 In other words, in the pattern matching process of Fig. 11
5 よ び図 7 で得 ら れた差分処理後フ レ ム画像 n 1 25 and the frame image n 1 2 after difference processing obtained in Fig. 7
7 に対 して 夕 ンマ ッ チ ン グ処理 を施す例 を示 し て い ス 7 shows an example of performing evening matching on
の 夕 ―ンマ ッ チ ン ク 処理では ン ピ 夕 シス テム 2 は ノ ィ ズ処理手段 2 3 に り 差分処理後 フ レ ム画像 n の左上隅 に示す四角形の被パ 夕 ン チ ン グ領域 1 3 1 内 の全画素 の画像パ タ ン に対 し て発光素 子の発光 タ ン と 類似する定義 夕 ―ン と の相関 を得 る た め のパ タ ンマ ッ チ ン グ処理 を行な う (図 1 2 ス テ ッ プ S 4 0 こ の被パ 夕 ン マ ッ チ ン グ領域 1 3 1 内 の定義パ タ ン は 付帯素子 1 1 の発光素子の発光 夕 ン を示すよ Ό に 中央の強度が最 も大さ < の 中央 か ら 周辺 に 向か Ό につれて強度が弱 < な る よ な 円錐形 の定義パ 夕 ン と な て い る そ して Π ン ピ ュ 夕 シス丁ム 2 は 被パケ ッ マ ッ チ ン グ領域 1 3 1 を矢印 1 2 9 で示すよ う に差分処理後 フ レ ム画像 n の全領域にわた て順次移動 し なが ら 、 被パ ケ ッ 卜 マ ッ チ ン グ領域 1 3 1 内 の画素パ 夕 ―ン を定 義パ 夕 ン と 昭 α してパ タ ンマ ソ チ ン グ処理 を行い 、 それぞれの座 で のマ ッ チ ン グ 果を得る (ス テ V プ SIn the evening-matching process, the skipping system 2 is provided by the noise processing means 23 by the square processing region 1 shown in the upper left corner of the frame image n after the difference processing. 3 Perform pattern matching processing on the image patterns of all pixels in 1 to obtain a correlation with the definition pattern similar to the emission pattern of the light emitting element. (Fig. 12 Step S40) The definition pattern in the pattern matching area 13 1 of this pattern corresponds to the light emission pattern of the light emitting element of the incidental element 11 1. The strength of the cone is defined as a cone where the strength decreases from the center <to the periphery of < Then, the pedestal system 2 sequentially changes the packet matching area 13 1 over the entire area of the frame image n after the difference processing as indicated by an arrow 12 29. While moving, the pixel pattern within the packet-matched area 13 1 is defined as the pattern pattern, and pattern matching processing is performed. Obtain a matching result at the current position (Step S
4 1 ) 4 1)
のマ V チ ン グ 果 と して パ 夕 ンマ ッ チ ン グ処理 後 フ レ ―ム画像 n 1 2 8 が 守 ら れる のパ 夕 ン マ ッ チ ン グ処理後フ レ ム画像 n 1 2 8 では 付帯素子 1 1 の発光素子の発光信号の部分ではパ夕 ン ッ チ ン グ値 が大き < な り 他の ノ ィ ズ部分では強 が強 < て も 、 発 光像の形状が異な る た め パ 夕 ンマ 、リ チ ン グ値は小 さ As a result of the V-matching, the frame image n 1 2 after the pass-matching process is protected and the frame image n 1 2 after the pass-matching process is protected. In figure 8, the shape of the emitted image is different even if the intensity of the light emission signal of the light emitting element of the incidental element 11 is large and the intensity is strong in other noise parts. Therefore, the setting value and litching value are small.
< な る の結果 所望の発光素子の発光信号 と ノ ィ ズ 信号 と の強 差が広がる た め そ の強 に応 じ て優先順 位を つ け る と が可能 と な る 図 1 1 に示す例では 、 付 素子 1 1 の発光素子の発光信号が優先順位 1 位 右下 隅の ノ ィ ズが優先順位 2 位 と な Ό 中央の ノ ィ ズは除去 さ れる そ で 優先順位の高 い も の を付帯 子 1 1 の 発光素子か ら の発光信号 と 判定す る と に よ り 優先順 位 1 位の座 を所望の ォブンェ ク 〇 に付帯さ れて い る 付 素子 1 1 の発光 ^! 子の発光 占位置 すなわ ち 付 ffT 呆 子 1 1 の位置 引 いて はォブン X ク 卜 0 の位 と判定す る と がでさ る (ス テ ッ プ S 4 2 、 図 1 3 は 図 9 にお け る 空間 フ ィ ルタ 処理後フ レ ム 画漆 ί象 n 1 2 4 と 図 1 1 にお ける ノ\° 夕 ンマ ッ チ ン グ処理 フ レ ム 画像 n 1 2 8 と に基づいて 先順位を比較 し て最終的な優先順位を決定 し 、 検出すベさ付帯素子 1 1 の発光素子の発光点 を識別する ォブン X ク 抽出処理 を 明する た め の 図であ る 。 <As a result, the intensity difference between the emission signal of the desired light-emitting element and the noise signal is widened, and it is possible to assign a priority order according to the intensity as shown in Fig. 11. In the example, the light-emitting signal of the light-emitting element of the attached element 11 has the highest priority. The noise in the lower right corner has the second priority.The noise in the center is removed. Is determined to be a light emission signal from the light emitting element of the accessory 11 1, and the light emitting element 11 having the first priority position attached to the desired object is assigned ^! The position of the luminous occupancy of the child, that is, the position of the ffT child 11 is subtracted, and it is determined that the position is the position of Xeven X 0 (step S42, FIG. Frame after spatial filter processing Based on the drawing lacquer image n 1 2 4 and the image of the evening matching processing frame image n 1 2 8 in Fig. 11, the priorities are compared to determine the final priority. FIG. 3 is a diagram for explaining a process of extracting X-rays for identifying a light-emitting point of a light-emitting element of the element 11 to be detected.
すなわち 図 1 3 に示すよ う に、 ン ピ タ シス テ ム 2 は ノ ィ ズ処理手段 2 3 に よ り 図 9 の空間 フ ィ ル タ 処 a後フ レ ム画像 n 1 2 . 4 と 図 1 1 のパ 夕 ンマ ッ チ ン グ処理後 フ レー ム 画像 n 1 2 8 と : を 比較 し (図 1 3 ス テ 、ソ プ S 5 0 ) 例 え ば両処理後 に共 に抽 出 さ れた 信 号のみ を抽出する と 、 下の図に示すよ に 空間 フ ィ ル 夕処理後フ レ ム画像 n 1 2 4 にお け る 優先順位 3 位の 信号は除去さ れ 優先順位 1 位 と 2 位の信号のみが残 る の よ Ό に残 た両信号の強度に着 し て 所定の 閾値 を設定 し の閾値 と優先順位 1 位 と 2 位の両信号 と 比 較 し 閾 値以 上 . の > 信号 の み を 抽 出す .る ( ス テ ッ プ S 5 That is, as shown in FIG. 13, the impulse system 2 is converted into a frame image n 12.4 by the noise processing means 23 and the spatial filter processing a in FIG. After comparing the frame image n 1 288 with the pattern matching process of 1 1, the comparison is made (FIG. 13: Ste, S 50). For example, both are extracted after both processes. When only the extracted signals are extracted, as shown in the figure below, the signal with the third priority in the spatial file after-frame processing image n124 is removed and the signal with the first priority is removed. Only the second and third place signals remain 着 Set a predetermined threshold based on the strength of both remaining signals and compare the threshold with the first and second place priority signals and above the threshold value Extract only the signal> (Step S5)
1 な 、 閾値 は検出 し た信号 中 の最大値か ら 決め る か ま た は予め P 定 し た値 とする 。 こ の 果 閾値以上の 信号は左上の 号の み と な り 、 こ の信号が優先順位 1 位 の信号 と し て最終的 に決定 さ れ、 こ の信号を検出すぺさ 付 子 1 1 の 光素子の発光点 を 別する と がで さ なお 上述 し た よ う に、 図 9 の空間 フ ィ ル夕処理後 フ レ ム画像 n 1 2 4 と 図 1 1 のノ°タ ン ッ チ ン グ処理 後フ レ ム画像 n 1 2 8 と カゝ ら 最終的な優先順位 を決定 する 方法 に は種々 の方法が適用 でき る 。 例えば、 いずれ か 方の 果をそ の ¾用する方法、 ま た は両者 を合 成す る方法な どがあ る 。 どの よ う な方法 を採用すベさか は ど の よ う な用途に使用 する か に よ り 判断すベさ こ と で あ る However, the threshold value is determined from the maximum value in the detected signal or is a value determined in advance. As a result, the signal above the threshold is the only signal at the upper left, and this signal is finally determined as the signal with the highest priority, and the signal from the sensor 11 that detects this signal is detected. As described above, the light emission points of the elements are different. As described above, the frame image n1 24 after the spatial file processing shown in FIG. 9 and the notching shown in FIG. 11 are obtained. Determine final priority from processed frame image n 1 2 8 and camera Various methods can be applied. For example, there is a method of using one of the fruits, or a method of combining the two. The choice of which method to use is a matter of judging the intended use.
ま た 上述 し た閾値 と の比較にお いて、 複数の信号が 閾値 を超え る場合に は、 閾値 を変えて再度比較す る と 考え ら れ る し 、 更 に は再度何 ら か の画像処理を施す と 考え ら れる が ど の よ う な用途に使用する か に よ り 判断すベきであ る  In the comparison with the above-mentioned threshold value, when multiple signals exceed the threshold value, it is considered that the threshold value is changed and the comparison is performed again, and furthermore, some image processing is performed again. Is considered to be applied, but it should be judged based on the intended use.
図 1 4 は 、 上述 し た 図 1 〜図 1 3 の処理 を総合 し た 果を す図であ る  FIG. 14 is a diagram showing a result obtained by integrating the processes of FIGS. 1 to 13 described above.
すなわ ち 、 図 2 お よ び図 1 4 に示すよ う に コ ン ピ ュ 夕 シス テム 2 は まず発光指示命令装置 1 0 5 が指定 する 識別 I D を含む発光指示命令 を各付帯 子 1 1 に 向 けて送信 し て、 識別 I D の一致する付帯 5 子 1 1 の発光 素子 を発光 さ せ (ス テ ッ プ S 1 S 6 参照) 次 に の 発光 を 動画 カ メ ラ 1 0 3 で撮像 し て ( ス テ ッ プ S 7 参 照 ) そ の発光点 を含む 出 力画像 フ レ ー ム と し て 出 力 す る  That is, as shown in FIGS. 2 and 14, the computer system 2 first issues a light emission instruction command including the identification ID specified by the light emission instruction command device 105 to each accessory 11. To the camera to make the light emitting element of the incidental element 11 with the matching identification ID emit light (see steps S1 and S6). The next light emission is captured by the video camera 103. (See step S7) and output it as the output image frame containing the light emitting point
次 に ン ヒ 夕 シス テム 2 は、 ノ イ ズ処理手段 2 3 に よ Ό 出 力 し た画像 フ レーム と 隣接画像 フ レ ム と の 差分処理 を施 して ノ イ ズを除去 し (ス テ ツ プ S 1 0 S Next, the noise system 2 removes the noise by performing a difference process between the output image frame and the adjacent image frame by the noise processing means 23 (Steel). S 1 0 S
1 3 参照)、 続い て差分処理 さ れた画像 に対 し て空 間 フ ィ ル夕 処理お よびパ タ ー ンマ ッ チ ン グ処理 を施'し て 差 分処理後 も歹曳つ てい る ノ ィ ズを更に除去する (ス テ ッ プ s 3 0 S 3 3 お よ び / ' ま た はス テ ッ プ S 4 0 S 4Then, the image subjected to the difference processing is subjected to the spatial filter processing and the pattern matching processing to perform the difference processing. Further remove the noise from the system even after the processing (Steps s3 0 S3 3 and / 'or Step S4 0 S4
2 )。 2).
次いで ン ピ ュ 夕 シス テム 2 は 空間 フ ィ ル夕 -処 理後あ よ びパ夕 ンマ ッ チ ン グ処理後のそれぞれの フ レ ム画像 に対 して 先順位の比較を行つ て フ レ ム 内 の 信号間 に 先順位 を決定 し 、 の決定さ れた t先順位 の 信号 を所定の閾値 と 比較 し 、 最終的 に優先順位 1 位の発 光 占 を決定 し てい る ち ので あ る (ス テ V プ S 5 7 )。  Next, the computer system 2 compares the frame images after the spatial file processing and the frame matching processing by comparing the priorities of the frame images. The prioritization is determined among the signals within the rem, the determined signal of the prioritized priority is compared with a predetermined threshold, and finally the luminous occupation of the first priority is determined. (Step S57).
図 1 5 は 図 1 3 にお いて決定 さ れた優先順位 1 位の 発光 占 と ォブン ク 卜 に付帯 さ れた付帯 子 1 1 の位置 情報 を対応付け、 そ の フ レ ム画像内座標を付帯素子 1 Figure 15 shows the correspondence between the luminous pattern of the first priority determined in Figure 13 and the position information of the accessory 11 attached to the abbot, and the coordinates in the frame image are shown. Ancillary element 1
1 の位置情報 とする こ と を示す説明 図で あ る FIG. 4 is an explanatory diagram showing that the position information is set to 1
すなわ ち コ ン ピ ュ ―タ シス テム 2 は 対応付け手段 That is, the computer system 2 is a correspondence means.
2 5 に よ り 発光 ra 命 卩 置 1 0 5 が例え ば識別 I D25 Emitting the light from ra 5
= m を含む発光指小 卩卩 を命 じ た時の時間 を T m と し そ の発光 を撮像 した 出力画像 フ レ ム n にお いて 先順 位 1 位 と な た信号の フ レ ム画像内座標を 図 1 5 の 1T m is the time when the light-emitting finger is ordered, and m is the output image from which the light emission is imaged. Frame image of the signal that was ranked first in frame n. Inside coordinates
3 4 a に示すよ ラ に ( X m , Y m ) と して抽出す る と がで さ る (ス テ ッ プ S 6 0 ) こ の と さ 先順位 1 位 と な つ た信号の位置は 上述 し た説明か ら 識別 I D m の付帯 子 1 1 か ら の発光 を示す も ので あ る ため の 優先順位 1 位の フ レ ム画像内座標 ( X m Y m ) を時 間 T m にお け る 付帯素子 1 1 の位置 と する と がでさ る 同様に 別 I D = m + 1 を含む発光指示命 を 叩 じ た 時間 T m + 1 に対す る 出力画像フ レーム n + 1 に対 し て は 、 フ レ ム 画像 内 座標 は 図 9 の 3 4 b に 示す よ う にAs shown in 34a, it can be extracted as (X m, Y m) (Step S60). This is the position of the signal with the first priority. From the above description, the coordinates (XmYm) in the frame image of the first priority to indicate the emission from the accessory 11 of the identification ID m are set to the time Tm. In the same way, the light emitting instruction including another ID = m + 1 was struck. For the output image frame n + 1 for the time Tm + 1, the coordinates in the frame image are as shown in Fig. 9 at 34b.
( X m + 1 , Y m + 1 ) と して抽出 さ れる (ス テ ッ プ S(X m + 1, Y m + 1) (Step S
6 1 )。 6 1).
図 1 6 は 、 図 1 5 に示 し た よ う に抽出 さ れたォブン ェ ク の 別 I D = m 、 m + 1 、 … 、 発光指示命令 を 送信 した時間 T m 、 T m + 1 、 …、 当該ォブジ工 ク の フ レ ム画像内座標 ( X m , Y m ) 、 ( X m + - 1 , Y m + 1 ) FIG. 16 shows the different IDs of the objects extracted as shown in FIG. 15 = m, m + 1,..., The time Tm, Tm + 1,. , Coordinates of the object image in the frame image (Xm, Ym), (Xm + 1, Ym + 1)
··· を 関連付けた フ ァ イ ル 、 すなわち 各ォブン X ク の フ レ ム画像内位置デー タ 抽出 フ ァ イ ル 1 3 5 を生成す る 処理 を示 して い る 図であ Is a diagram showing a process of generating a file in which frame data are associated with each other, that is, a file 135 for extracting position data in a frame image of each object X.
すなわち 、 コ ン ビ ユ ー 夕 シス テム 2 は 、 対応付け手段 That is, the convenience system 2 is provided with the association means.
2 5 に よ り 、 各時間 ( τ m 、 T m + 1 … According to 25, each time (τm, Tm + 1 ...
、 ) とそれ に対 応す る 出力 フ レーム ( n 、 n + 1 、 … ) か ら 抽出 さ れた 各識別 I D ( m 、 m + 1 、 …) の フ レ一ム画像内位置座 の対応付 け を 行 い ( ス テ ッ プ S 6 5 . 、 ス テ ッ プ S 6 ,) And the corresponding position in the frame image of each identification ID (m, m + 1,…) extracted from the corresponding output frame (n, n + 1,…) (Step S6 5., Step S6
6 ) 、 次い で対応付 け ら :れた各識別 I D ( m 、 m + 1 、6), and then corresponded to each identification ID (m, m + 1,
··· ) と フ レ —ム画像内位置座標 と に基づいて 、 各ォブジ ク 卜 の フ レーム画像内位置デー タ 抽出 フ ァ ィ ル 1 3 5 を生成する (ス テ ッ プ S 6 7 )。 ..) And the position coordinates in the frame image, a position data extraction file 135 in the frame image of each object is generated (step S67). .
すなわち 、 こ の フ レーム画像内位置丁 ―夕 抽出 フ ァ ィ ル 1 3 5 は 、 各オブジェ ク ト I D ( m …  That is, the position extraction in the frame image—the evening extraction file 135 is made up of each object ID (m ...
、 m + 1 、 ) に 対応 して各時間 ( T m 、 T m + 1 、 ··· ) お よび画面座標 , M + 1,) corresponding to each time (T m, T m + 1,…) and screen coordinates
( X m Y m ) 、 ( X m + 1 , Y m + 1 • ) 、 … を互 い に対 応付けて登録 し て い る 。 図 1 7 は、 図 1 6 に示 し た各ォブンェ ク 卜 の フ レ ム 画像内位置デ一 夕 抽出 フ ァ ィ ル 1 3 5 を予め ン ピ ュ 夕 シス テム 2 内 の情報フ ァ ィ ル と結 口 して、 ォブジ ェ ク 卜 デ 夕 ベ ス 1 4 1 と し て構成 し て扱 Ό こ と を 兑明 し て い る 図で め る 。 の ン ピ ュ 夕 シス テム 2 内の情報 フ ァ ィ ルの 例 と し ては ォブン X ク 卜 名 に関する つ 夕 フ ァ ィ ル 1 3 7 が図示さ れて い る (XmYm), (Xm + 1, Ym + 1 •), ... are registered in correspondence with each other. Fig. 17 shows the location data extraction file 1335 in the frame image of each object shown in Fig. 16 in advance and the information file in the computer system 2 in advance. In this figure, it is shown that the object is configured and handled as object database 141. As an example of an information file in the compilation system 2 of this example, a file 1337 relating to the name of an X-box is illustrated.
の才ブジェ ク 卜 名 に 関す る 丁 夕 フ ァ ィ ル 1 3 7 は 予め別 フ ァ ィ レ と し て ォブン X ク 卜 に 関す る 情報 (本 実施形態では、 各ォブン X ク 卜 に付随する キ ヮ ド ) を蓄 し た フ ア イ ルであ る  The file 1337 relating to the name of the object is stored in advance as another file in the form of information about the object X (in this embodiment, the information attached to each object X File).
図 1 7 にお ける ン ピ ュ 夕 シス テム 2 内 の情報 と の 結合では 対応付け手段 2 5 に よ U レ シ 3 ナルデ タ ベ ―ス 的な考え方で dfck通の ォブジェ ク I D に よ つ て各ォブジェ ク 卜 の フ レ ム画像内位 mテ タ 抽出 フ ァ ィ ル 1 3 5 と ォブン X ク 名 に 関する つ— 夕 フ ァ ィ ル In the connection with the information in the computer system 2 in Fig. 17, the association means 25 uses the U-Receiver 3 based on the dfck object ID based on a narrative database concept. In the frame image of each object m Data extraction file 13 5 and the name of the object X
1 3 7 と を 結合 し て い る (ス テ ' V プ S 7 ' 0 ) の 結合 前に は 時間 T m に識別 I D = m と して付帯さ れた付帯 素子 1 1 の位置は フ レ ―ム画像内座標であ る 画面座標Prior to the connection of (Step V V S7'0), which is connected to the element 1337, the position of the attached element 11 attached at the time Tm with the identification ID = m is -Screen coordinates, which are coordinates in the image
( X m Y m ) で あ る と し か分か ら なか つ たが 本例 の よ う にォブジェ ク 卜 名 に関する 了 夕 フ ァ ィ ル 3 7 と結 合す る と に よ り 時間 Τ m に名称 A と い う も のが座標(X m Y m), but it is not clear how long it would take to combine this with the file 37 about the object name, as in this example. Where the name A is the coordinates
( X m Y m ) に あ る と い Ό よ う に よ り 人間 に分か り 易 い情報 と し て得 ら れる ォブン X ク つ タ ベ ス 1 4 1 を構築する こ と ができ る なお フ ァ ィ ル間の結合は ン ピ ュゝ ~夕 シス ァム 2 の 八 丁 ィ ス ク 等の外部記憶装置の記憶領域内 の フ ァ ィ ル 士で あ て よ い し 、 ま たは図示 し な いネ ッ ヮ ク を経 由 して異な る複数の Π ン ピ ―タ シス テム 間 の 記悔 TJ貝域内 の フ ァ ィ ル |pj士の ο であ つ て も よ い (X m Y m), it is possible to construct a job X 14 table that can be obtained as information that can be easily understood by humans. The connection between the files may be a filer in a storage area of an external storage device such as a computer to an eight-disk in an evening system 2, or may be a filer. Repentance between a number of different pump systems via a network not shown Files in the TJ shell area |
図 1 8 は 図 1 7 で 明 し た各ォブジェ ク の フ レ ― ム画像内位置丁 タ 抽出 フ ァ ィ ル 1 3 5 と ォブジ X ク 名 に 関す る 夕 フ ァ ィ ル 1 3 7 をォブン X ク 卜 I D で 結 α し たォブン X ク 卜 丁 ― 夕 ベ ―ス 1 4 1 の ォブジ ェ ク 卜 名 閧す る T タ フ ァ ィ ル 1 3 7 に対 して他の項 g で あ る キ フ ド を共通キ と し て情報 フ ァ ィ ル 1 3 8 を Figure 18 shows the location extraction file 1335 and the evening file 1337 relating to the name of the object X in the frame image of each object described in Figure 17. The other X is the X-shaped X-X-Dot that is linked with the X X-ID, and is the other term g for the T-file 1337, which is the object named for the object 141. Information file 13 8
Π ン ピ ュ一タ シス テム 2 の対応付け手段 2 5 に よ り α し て情報丁 夕 ベ ス 1 4 3 を構成する (ス テ ッ プ S 7The information base 144 is configured by α by the associating means 25 of the computer system 2 (step S7).
1 参照 ) と を す図で あ る (See 1)
情報 フ ァ ィ ル 1 3 8 は 、 キ ヮ ド に対応 し て趣味 購買履歴 色 値段 U R L ― B な どの情報 を登録 して お り の U R L ― B は 、 情報丁 夕 ベ ス 1 4 3 が I In the information file 1338, information such as hobbies, purchase histories, color prices, URL-B, etc., is registered in correspondence with the card.
P ( I n t ( e r n e t P r o t o c o 1ノ i網 1 5 1 上 に存在す る ク X ブサィ 卜 に ァ ク セス して のゥ ブサィ 卜 か ら 情報 を 取得 し得る と •a 示 して い る P (Int (ernettProtoco1 1) Shows that information can be obtained from subsites by accessing the X-subsites existing on the i-network 151
図 1 8 に示すよ に 複数の フ ァ ィ ル を 通のキ で 糸口 D する と に よ り 複数の了 夕 ベ ス を構成す る と がでぎ 提供す る 情報の付加価値 を高 め る と がでさ る 例え ば 本例では 時間 T m に座標 ( X m Y m ) に あ た名称 A の購買 歴は X X で あ る と い Ό よ Ό な付 加価値の高 い情報 にする と ができ る に 上述 し た よ う に付加情報 と して I P 網上での フ ァ ィ ルの存在場所 を 表す U R • L ' ( Unif orm Resource ] Locator ) を 付 け 加えれば 指定 さ れた U R L のサィ か ら 情報 を 引 き 出 し 刖記情報に付加情報 と して付 け加え る こ と も 可能で あ る As shown in Fig. 18, when multiple files are opened with multiple keys through multiple keys, the added value of the information provided by gadegaki is increased. For example, in this example, it is assumed that the purchase history of the name A at the coordinates (XmYm) at time Tm is XX. As described above, UR • L '(Uniform Resource] Locator, which indicates the location of a file on an IP network, is used as additional information as described above. If added, it is also possible to extract information from the site of the specified URL and add it to the record information as additional information
なお フ ィ ル間の結 は 3 ン ピュ ―タ シス テム 2 の 八 ドヽ ァ ィ ス ク 等の外部記 te ¾¾置の記憶領域内 の フ ァ ィ ル 士で め つ て も い し ま た は図示 しな いネ V 卜 ヮ ク を経 由 して異な る複数の コ ン ピ ュ タ シス テム 間 の 記 領域内の フ ィ ル同士の A  In addition, the connection between the files was also established by the file technicians in the storage area of the external storage te storage such as the eight-disk disk of the three-computer system 2. Is the A of files in the storage area between different computer systems via a network (not shown).
■ita で あ つ て も よ い と は 上述 し た場 口 と 同 じで あ る  ■ It may be the same as that mentioned above
図 1 9 は 刖記才ブン 工 ク 卜 の フ レ ム画像内位置了 夕抽出 フ ィ ル 1 3 5 を ン ピ ュ タ シス テム 2 に よ り 構築 さ れる サィ パ ―空間 ( 3 ン ピ ュ 夕 シス テム 2 あ る い はネ V 卜 ク に接 さ れた複数の コ ン ピ ュ タ シス テム とその 3 ン ピ ュ 夕 シス テム に蓄積さ れた情報 と か ら 構築 さ れた空間 ) でのォブン X ク ト 管理 に関連付 けて 実世界 とサィ バ 世界のォ ブン X ク 卜 管理 ― 夕 ベ ス 1 4 5 を構築する と を示 して い る 図であ る  Fig. 19 shows the position extraction in the frame image of the 刖 ブ ン 才 ブ ン ブ ン ブ ン 刖 ブ ン 抽出 1 抽出 5 5 5 5 1 サ 5 サ サ サ サEvening system 2 or a space built from multiple computer systems connected to the network and the information accumulated in the 3rd evening system) Is a diagram showing that in connection with the management of Xbox X in the real world and the Xbox management of the real world and the SIVOR world-evening 145
更 に詳 し < は コ ン ピ ュ タ シス テム 2 は 各ォブジ For details, <indicates that computer system 2 is
X ク の フ レ ム画像内位置つ タ 抽出 フ ィ ル 1 3 5 をサィ バ 世界上のォブン X ク 卜 リ ス 卜 1 3 9 と両者の 共通 の項 であ る 識別 I D をキ と し て対応付け手段 2The position extraction file 135 of the X-frame in the frame image is used as the identification ID, which is a common term between the X-cut list 13 and the X-box 13 in the server world. Correlation means 2
5 に よ り 結合 して 世界 とサィ バ 世界の ォブン ェ ク h 管理テ 夕 ベ ス 1 4 5 を構成 してい る (ス テ ッ プ s5 to combine the world with the world h Management table 1 4 5 is configured (step s
7 3 サイ バ - 上 のォ ブジェ ク ト リ ス ト 1 3 9 は、 項 百 と して識別 I D 位置 時間、 属性、 セ ン シ ン グ情報、 な ど を有する 7 3 Cyber-The object list 1339 on the top has the identification ID position time, attribute, sensing information, etc. as items 100
サィ バ 世界にお いて 実世界に あ る モ ノ を仮 的 に ォブン ク と して管理す る と い Ό と は 、 そ の プ口 パ ティ を管理する と を 味 し 、 そ の プ口 ティ を構成す る の は 通常予め補足が可能な 固定的な情報 に 限 ら れ て い る 例 え ば 本で あれば 、 ぺ ン数 、 出版社な どで あ る 本例では 各才ブン ェ ク の フ レ一ム画像内位置 デ 夕抽出 フ ァ ィ ル 1 3 5 の よ う に リ ァルタ ィ ム で実世 To temporarily manage a thing in the real world as an object in the server world means to manage its properties. Is usually limited to fixed information that can be supplemented in advance.For example, if it is a book, it is a book, a publisher, and so on. In the real-time, as shown in the position extraction data file 135 in the frame image of the
- 界のォブン ェ ク 卜 の位置情報 をき 識 し 、 それを識別 I D と 関連さ せて 他の フ ァ ィ ル に対 し て士曰供でさ る う な 仕組みを提供する た め サィ バ 上のォブン X ク リ ス 卜 1 3 9 の項 巨 と し て実世界での位置情報 を リ ァル夕 ィ ム に追加する と がで き る の う に従来固定的で あ つ たサィ バ ―上のォブン ク 情報 を実世界の 化に即 して 白 動的 に変更す る と ができ る すなわち 、 実世界 に即 し てサィ ハ、 才ブン X ク 卜 を管理 して 、 実世界に密 にサ バ ォブン ェ ク 卜 を実現 し 、 世界 とサィ バ 世 界を結合する と がでさ る -To recognize the location information of the world object and associate it with the identification ID to provide a mechanism for other files to be provided by the public. Previously, the fixed X server was able to add the real-world location information to the real time as a big item in the above X list 1339. ―The above information can be dynamically changed in accordance with the real world. That is, Saiha and Saibun X are managed according to the real world, and the real world is managed. Achieving a close connection to the world and joining the world with the world of Saba
図 2 0 は 本発明 に係 る 図 1 に示す実世界オブジェ ク 卜 口心識シス テム 1 の他 の実施形態の全体動作を説明する た め の 図であ る  FIG. 20 is a diagram for explaining the overall operation of another embodiment of the real world object oral knowledge system 1 shown in FIG. 1 according to the present invention.
図 2 0 に示す実施形能にお いて、 コ ン ピ ュ ータ シス テ ム 2 は 光指 7 ロ卩令装 1 0 5 と 画力 メ フ 1 0 3 と の協 e周動作によ Ό 発光指示叩令 に応答 し て発光する 付 素子 1 1 の発光を動画力 メ ラ 1 0 3 の フ レ ム周期 に 同期 さ せる と と に 付帯素子 1 1 の発光素子の発光持 時間 を動画力 メ ラ 1 0 3 の フ レ ム時間内 に して い る 占が異な る も ので あ り その他の構成お び作用 は同 じ であ り 同 じ構成要素に は じ符号 を付 し てその 明 を 略する In the embodiment shown in Figure 20, the computer system The lighting of the attached element 11 that emits light in response to the light emission command is performed by the motion of the lighting device. When the frame is synchronized with the frame period of the camera 103, the occupation of the light emitting element of the incidental element 11 within the frame time of the moving image camera 103 differs. Other components and functions are the same, and the same components are denoted by the same reference numerals and their description is omitted.
図 2 1 は 図 2 0 に示す実施形態 にお いて各付紫 子 FIG. 21 is a diagram showing the respective attachments in the embodiment shown in FIG.
1 1 の発光 子か ら の発光像を撮像 し た動画力 メ ラ 1 0Video camera that captures the luminescence image from the luminous element 1 1
3 の 出力 フ レ ム画像 ( フ レ ム毎の画像 τ 夕 ) を 図 示 して い る のであ る 3 shows the output frame image (image for each frame τ evening).
本実施形 では 図 2 0 に し た つ に ン ピ 夕 シス テム 2 の発光指示命 装置 1 0 5 と動画力 メ ラ 1 In the present embodiment, as shown in FIG. 20, the light emission indicating device 105 of the illumination system 2 and the moving image
0 3 と の協調動作に よ り 発光指示命 装置 1 0 5 か ら の発光指示命 に応答 し て発光す る 付帯素子 1 1 の発光 時 占 を動画力 メ ラ 1 0 3 の フ レ ム周期 に 同期 さ せ る と と も に 付帯 子 1 1 の発光 子の発光持 時間 を動画 力 メ ラ 1 0 3 の フ レ ム 時間内 にき又 ¾定 して い る The occupancy of the incidental element 11, which emits light in response to the light emission instruction from the light emission instruction device 105 by cooperating with the light emission instruction device 103, is used as a moving image. In addition to this, the emission time of the luminous element of the accessory 11 is set within the frame time of the moving image camera 103.
の結果 図 2 1 に示す よ に 動画力 メ ラ 1 0 3 か ら 出力 さ れた フ レ ム画像 η よ び η + 1 に は 付 - W素 子 1 1 b 1 1 c の発光素子か ら の 発光像 I 3 b I 3 c のみが現れ 図 3 に示 し た よ Ό に他の付帯素子 1 1 か ら の発光像の 部がノ ィ ズ と し て現れな い よ う にな つ て い る 従 て 付帯 子 1 1 の位置のき口心識 を正 し < 行 う と がで さ る ま た が 1 フ レ ム毎に終了す る た め 動画力 メ ラ 1 0 3 の フ レ ム 周期 と じ 高速な周期 で才ブン ク の 。心識が可能 と な る □ As shown in Fig. 21, the frame images η and η + 1 output from the moving image power camera 103 are attached to the -W element 1 1b1 1c from the light-emitting element. Only the light emission image I 3 b I 3 c appears, and as shown in FIG. 3, the portion of the light emission image from the other incidental element 11 does not appear as noise. Therefore, correct the attitude at the position of the attachment 1 1 Because it ends at every frame, the speed of the animation is as fast as the frame cycle of 103. Sense of mind is possible □
図 2 2 は 本発明 に係 る 図 1 に示す実世界ォブン X ク 卜 き口心識シス テム 1 の他の実施形能の全体動作 を説明す る た め の 図で あ る  FIG. 22 is a diagram for explaining the overall operation of another embodiment of the real-world obnext X-centre system 1 shown in FIG. 1 according to the present invention.
図 2 2 に示すよ う に 本実施の形 にお い ては 特 に 実世界の ォブン X ク 卜 0 に付帯さ せ ら れる 各付帯素子 1 As shown in FIG. 22, in this embodiment, each of the additional elements 1 attached to the X-box 0 of the real world is particularly important.
1 の発光素子 1 5 C が 発光制御手段 1 5 d の制御 に応 じ て 動画力 メ ラ 1 0 3 の フ レ ―ム に同期する と な < 白発的か つ所定の周期で繰 り 返 し発光する も のであ る ま た 各付帯 子 1 1 は 白 発的かつ所定の周期 の繰 返 し発光 に 1口 J期 し て 例え ば送信手段 1 6 d 等 に り 自 子に予め割 Ό て ら れて い る 識別 I D を コ ン ピ ュ 夕 シス テム 2 に 向 けて送信する よ う にな て い る の 識別 I D は 発光 に含ませて ン ピ . 夕 シス テム 2 に 送信 し て も よ い し 別 の通信路を経 由 して ン ピ ュ 夕 シス テム 2 に送信 して も < 任 の手段 を取り 得 る も のであ る When the light-emitting element 15C of 1 synchronizes with the frame of the moving image camera 103 under the control of the light-emission control means 15d, it repeats at a predetermined frequency In addition, each accessory 11 is pre-allocated to its own device by transmitting the light for a period of J times and emitting light repeatedly and of a predetermined period, for example, by a transmission means 16 d or the like. The obtained identification ID is transmitted to the computer system 2. The identification ID is included in the light emission and transmitted to the computer system 2. It is also possible to take any means by sending it to the computer system 2 via another communication path.
の と き ン ピ ュ タ シス テム 2 は 図 4 に示 し た よ う に 動画力 メ ラ 1 0 3 で付帯素子 1 1 の発光 を撮像 する と と に の発光 に 期 して送信 さ れる s i別 I D を受信 し の撮像 し た発光ハ占、、の位置を上述 し た と 同様 に して実世界ォブン X ク の位置 と して特定 し、 の特 定 し た実世界ォブジェ ク h の位 をサィ バ 世界を 成 する 3 ン ピ ュ タ シス テム 2 に いて口 、 すなわ ち m 別情報に対応 し か 上記位置を有する ォブジ X ク と してサィ バ 世界に α させる と ができ る At this time, as shown in FIG. 4, the computer system 2 captures the light emission of the incidental element 11 with the moving image camera 103 and transmits the light in response to the light emission of the auxiliary element 11. In the same way as described above, the position of the light-emitting area captured by receiving another ID is specified as the position of the real world object X, and the position of the specified real world object h is specified. Create a world In the computer system 2, the mouth, i.e., the object corresponding to the different information, or the object having the above position, can be set to the world of the cyber world.
図 2 3 は 図 1 に示す実世界ォブン X ク K 1 。心識 シス テ ム 1 の他 の実施形態の全体動作を β 明す る ため の 図で り 特に各付帯 子 1 1 の発光 子 1 5 c は、 そ の発光 制御手段 1 5 d の制御 に応 じて 動画力 メ ラ 1 0 3 の フ レ ―ム に 同期する と な 白 発的で め る ち周期的でな ラ ンダム な長さ のガ ド 時間 の後繰 Ό し発光す る  Figure 23 is the real world X X K1 shown in Figure 1. 7 is a diagram for explaining the overall operation of the mind system 1 in another embodiment. In particular, the light emitters 15c of each accessory 11 correspond to the control of the light emission control means 15d. When the video is synchronized with the frame of the camera 103, it emits light after a gad time of random length, which is periodic.
図 2 3 に示す実施形態では 付帯 子 1 1 は 例 え ば 送信手段 1 6 に よ り 動画力 メ ラ 1 0 3 の フ レ ム に 同期する と 自 発的で あ る 周期的でな く ラ ンダ ム な長さ のガ一 ド、 時間の後繰 Ό 返 し行われる発光 に 同期 し て 図 2 2 と 同様に 白 分に予め割 Ό 当 て ら れて い る 識別 I D を コ ン ピ ュ 夕 シス テム に 向 けて送 ihする う にな Ό て い る の識別 I D は 発光に含 ませて ン ピ ュ 夕 シス テム に送信 して も い し 別 の通信路 を 由 し て ン ピ ュ タ シス テム に送信 し て も よ 任意の手 段 を取 り 得る も のであ る  In the embodiment shown in FIG. 23, the accessory 11 is spontaneous when it is synchronized with the frame of the moving image camera 103 by the transmission means 16, for example. A guide of a short length, and in synchronization with the light emission repeated after time, an identification ID previously assigned to white as in FIG. 22 is compiled. The ID that is sent to the evening system is not included in the light emission, and may be sent to the evening system or sent via another communication channel. It is possible to take any means by sending it to the system
付帯素子 1 1 は 動画力 メ ラ 1 0 3 の フ レ ム に 同期 す る と な 非周期的 に ラ ンダム な長さ の ガ ド、 時間 の 後繰 返 し発光する と と も に の発光 に 同期 し て識別 The ancillary element 11 is a non-periodically random gad for synchronizing with the frame of the moving image camera 103, emits light repeatedly after time, and emits light. Synchronize and identify
I D を ン ピ ュ 夕 シス テム に向 けて送信 してい る た め 、 コ ン ピュ 夕 シス テム 2 は動画力 メ ラ 1 0 3 で付 fir素子 の発光を撮 {象する と と も に の 光に 同期 して送信 さ れる 別 I D を受信 し の it 像 し た発光 占 の位 を上Since the ID is transmitted to the computer system, the computer system 2 captures the light emission of the fir element with the moving image camera 103 and captures the light. Transmitted in synchronization with light Received another ID and received the image
,
述 し た と 同様に し て実世界才ブン X ク h の位置 と し て特As described above, the position of the real world talent
、 * , *
定 し の特定 し た実世界才ブン X ク h の位置をサィ バ 世界を構成する ン ピ ュ タ シス テム 2 にお い てき ヽ すなわち識別情報 に対応 し かつ上 位置を有す る ォブ ン X ク と し てサィ バ 世界に結 Π さ せ る と がで さ る 図 2 4 は 本発明 の更に別 の実施形能 に係わ る 実世界 ォブン ク 卜 識 シス テム 1 の全体動作 を p兑明す る た め の 図で あ り 特に ォブン X ク 卜 0 に付 さ れる付帯 子The position of the specified real world talent X Xh is specified in the computer system 2 constituting the server world, that is, the object corresponding to the identification information and having an upper position. FIG. 24 shows that the whole operation of the real-world object recognition system 1 according to still another embodiment of the present invention is expressed as p. It is a diagram for the purpose of explanation, and in particular, the accessory attached to the Xbox X 0
1 1 が発光指示命 装置 1 0 5 か ら の発光指示命令 に応 答 し て所定時間 所定の周期で繰 Ό 返 し発光する も の で め る In response to a light-emitting instruction command from the light-emitting instruction device 105, the light-emitting device repeatedly emits light for a predetermined period of time at a predetermined period.
本実施形目 では 図 2 4 に示すよ う に 例 え ば付 子 1 1 a の発光素子 1 5 c は 発光制御手段 1 5 d の制 御 に応 じ て 時刻 T m ― 1 に コ ン ピ ュ タ シス テム 2 の 有する 発光指示命 装置 1 0 5 か ら 回 出力 さ れる 発光 指示命令 に応答する と 所定の周期 T で繰 り 返 し 発的 に所定時間 発光する よ Ό にな つ て い る ま た 付 素 子 1 1 b 1 1 c も 1 J様 に 時刻 T m T m + 1 に 回出力 さ れる発光指示命 に応答す る と 所定の周期 T で繰 り 返 し 白 発的 に所定時間発光する よ にな つ て い る の よ う に 回の発光指示命令に よ り 所定時間 所定の 周期 Τ で繰 り 返 し発光す る と に よ り 発光指示命令の 出力 回数 を低減する と がでさ 発光指示命 装置 1 0 In the present embodiment, as shown in FIG. 24, for example, the light emitting element 15c of the attachment 11a is operated at the time Tm-1 according to the control of the light emission control means 15d. In response to the light emission instruction command output from the light emission instruction device 105 of the computer system 2, the light emission is repeated at a predetermined cycle T and spontaneously emits light for a predetermined time. When the element 1 1b 1 1c also responds to the light emission instruction output at time TmTm + 1 in the same manner as 1J, the element repeatedly repeats at a predetermined cycle T. The light emission instruction command is repeated for a predetermined period of time Τ in accordance with a light emission instruction command so that the light is emitted for a predetermined time, thereby reducing the number of times the light emission instruction command is output. Light emission instruction device 1 0
5 と 付堂 子 1 1 の受光手段間の 信頻 を低減でき かつ ft作 度 も低減でさ 消 ェネルギ を低 する と がでさ る 5 and the frequency of communication between the light receiving means of In addition, the ft work is reduced and the energy consumption is reduced.
すなわ ち 本実施形態では 実世界のォブジ X ク 卜 Ο に付帯さ れ 予め識別 I D を割 り 当 て ら れて い る 付帯 子 1 1 は サィ パ一世界を構成する ン ピ ュ 夕 シス テ ム 2 か ら 識別 I D を含む発光指 命令を 1 回受信す る と の発光指示命令 に含 ま れる識別情報が 自 分 に割 り 当 て ら れた識別情報で あ る 場 □ の 1 回の発光指示命令 に 応答 して所定時間 所定の周期で繰 り 返 し発光す る  In other words, in the present embodiment, the accessory 11 attached to the object X in the real world and assigned an identification ID in advance is a computer system constituting the hyper-world. When the light-emitting instruction command containing the identification ID is received once from the system 2, the identification information included in the light-emitting instruction command is the identification information assigned to itself. Flashes repeatedly at a predetermined period for a predetermined time in response to a flash command
そ して ン ピ ュ ―夕 シス テム 2 において は 付帯素 子 1 1 の発光を動画力 メ ラ 1 0 3 で撮像 し の撮像 し た '発光 占 の位置を実世界ォブン X ク 卜 の位置 と し て特定 し の特定 し た実世界ォブン X ク 卜 の位置 を識別 I D に対応 し かつ上記位置 を有する ォブジ ク 卜 と し てサ ィ バ 世界に α さ せる と がでさ る  Then, in the amp-evening system 2, the light emission of the incidental element 11 was imaged with the moving image camera 103, and the position of the light-emission occupancy was compared with the position of the real world X-box. Then, the position of the specified real world X-cut corresponding to the identification ID is assigned to the server world as an object corresponding to the identification ID and having the above-mentioned position.
図 2 5 は 本発明 に係 る 図 1 に示す実世界ォブン ェ ク 識シス テム 1 の他の実施形態 に係わ る の全体動作を 説明する た め の 図であ り 特に 図 2 4 の実施形態 にお い て発光指示命 に応答 し て発光する 付 子 1 1 の発光 を動画力 メ ラ 1 0 3 の フ レ ム周期 Τ f に 同期 さ せる と と も に 付 子 1 1 の発光 子の発光持 時間 を動画 力 メ ラ 1 0 3 の フ レ ム 時間内 に し てい る ので あ る 本実施形態は そ の他の構成 作用 効果は図 2 4 の実 施形能 と 1口 Ί じでめ り 同 じ構成要 に は じ符号 を付 し てその 明 を省略する 図 2 6 は 本 明 に係 る 図 1 に す実世界ォブン X ク き B' 識シス テム 1 の別の実施形能の全体動作を 明する ため の 図で あ る □ FIG. 25 is a diagram for explaining the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention. In particular, FIG. In the configuration, the light emission of the tag 11 emitting light in response to the light emission instruction is synchronized with the frame period Τ f of the moving image camera 103 and the light emitting device of the tag 11 is also emitted. The light emission duration is set within the frame time of the moving image camera 103. In this embodiment, the other components, operations, and effects are the same as those of the embodiment shown in FIG. The same components are denoted by the same reference numerals and their description is omitted. Fig. 26 is a diagram for illustrating the overall operation of another embodiment of the real world object X 'B' knowledge system 1 shown in Fig. 1 according to the present invention.
同 図 に示す実施形目 に係 る実世界ォブン X ク h き口心識 シ ス テム 1 は 図 2 に示 し た実施形 に いて 第 1 の撮 像手段 2 2 であ る 第 1 の動画力 メ ラ 1 0 3 a に加 えて その第 1 の動画力 メ ラ 1 0 3 a と じ ίョ像視野 (視野領 域 1 0 9 ) を有する 第 2 の撮像手段 3 0 で あ る 第 2 の動 画力 メ ラ 1 0 3 b を備えてお り の第 2 の動画力 メ ラ In the embodiment shown in the figure, the real world observing system 1 is the first moving image which is the first imaging means 22 in the embodiment shown in FIG. In addition to the force camera 103 a, the second moving means 30, which has the first moving image force 103 a and the same image field of view (field of view 109), is the second imaging means 30. The second video power camera equipped with a video power camera 103b
1 0 3 b は 付 1 子 1 1 の付 さ れて い る実世界の ォ ブン X ク 卜 o の画像 を撮像 し _ の撮像 し た実世界ォブ ジ ェ ク に 関する 画像 と第 1 の動画力 メ ラ 1 0 3 a に 撮像 さ れた画像 に よ Ό 得 ら れたォブジ X ク h の位置 と をサィ バ 世界で あ る ン ピ ュ タ シス テム 2 上 に い て Π する よ う に し て い る 点が異な る のであ り そ の 他の構成 作用 効果は 1口] じで あ 1口 J じ構成要素 に は 同 じ符号を付 し その目兌明 を 略する 103 b is an image of the real world object X attached to the appendix 11 and an image of the real world object taken by _ and an image of the first object. Moving image The position of the object X obtained from the image captured by the camera 103a is located on the computer system 2 in the server world. The other components and effects are the same. One component is the same. The same components are designated by the same reference numerals, and the corresponding components are omitted.
第 2 の動画力 メ ラ 1 0 3 b は 所謂 般の丁 ジタ ル ビ テォ力 メ ラ な どであ り 可視画像 を撮像 し得る も のであ る が 動画力 メ ラ でめ る 必要はな < 静止画力 メ ラ で よ い も のであ る  The second video power camera 103b is a so-called general digital camera and can capture a visible image, but it is not necessary to use a video power camera. Still image power is good
第 1 の動画力 メ ラ 1 0 3 a お び第 2 の動画力 メ ラ 1 First video power camera 1 0 3 a and second video power camera 1
0 3 b を有する ン ピ ュ ―夕 シス テム 2 にお いて は付世 0 With 3b-Evening in System 2
ftr 素子 1 1 の発光を第 1 の動画力 メ ラ 1 0 3 a で士 像する と と も に 第 2 の 画力 メ ラ 1 0 3 b で付 - - fW 子 1 1 の 付帯 さ れて い る 実世界のオブジェ ク ト 〇 の画像そ の も の を 図 2 6 に お い て右下隅 に オ ブジ ェ ク ト の 画像 1 5 1 ( T m ) {発光時刻 T m に て撮像 }、 1 5 1 ( T m + 1 )The light emission of the ftr element 1 1 is imaged by the first moving image camera 103 a and the light is emitted by the second image camera 103 b--fW element 1 1 The image of the attached real-world object 〇 is shown in Figure 26 in the lower right corner, and the image of the object 15 1 (T m) { }, 1 5 1 (T m + 1)
{ 光時刻 T m + 1 にて } と して示すよ に撮 f象 する {At light time T m + 1}
の よ Ό に構成 さ れる 本実施形目 Pでは 実世界の ォ ブ ン X ク 卜 0 に付帯 さ せ ら れてい る 付 子 1 1 は識別 I In the present embodiment P, which is configured as follows, the identifier 11 attached to the object X in the real world X is identified by the identifier I.
D を割 Ό 当 て ら れ 発光指示命令装置 1 0 5 か ら の発光 指示命令に応答 し て発光する よ Ό に構成さ れてい る と は図 2 の実施形台 p と 同 じで あ る で ン ピ ュ 夕 シ ス テム 2 の発光指 命令お置 1 0 5 か ら 付 素子 1 1 を 特定する識別 I D を含む発光指示命 を付帯素子 1 1 が 受信する と 付帯素子 1 1 は発光指示命令に含ま れる識 別情報が自 分に割 Ό て ら れた識別情報であ る 場合 に発 光する It is the same as the embodiment table p in FIG. 2 in that it is configured to emit light in response to the light emission instruction command from the light emission instruction command device 105 when D is assigned. When the incidental element 11 receives a light emitting instruction including an identification ID for identifying the incidental element 11 from the light emitting instruction instruction 105 of the computer system 2, the incidental element 11 issues an instruction to emit light. Emit when the identification information included in the instruction is the identification information assigned to you.
ン ピ 夕 シス テム 2 にお いては 付帯 子 1 1 の 発光 を第 1 の動画力 メ ラ 1 0 3 a で撮像する と と も に 第 2 の動画力 メ ラ 1 0 3 b で付 AT素子 1 1 の付帯 さ れて い る 実世界の ォブジェ ク 卜 〇 の画像 を撮像 し 第 1 の動 画力 メ ラ 1 0 3 a で撮像 し た発光 占 の位 を実世界ォブ ン X ク 卜 0 の位置 と し て特定 し の特定 し た実世界ォ ブジ ェ ク 卜 0 の位置お よ び識別 I D を第 2 の動画力 メ ラ In the illumination system 2, the emission of the incidental element 11 is imaged by the first moving image camera 103a, and the AT element is emitted by the second moving image camera 103b. 11 The image of the real-world object 帯 attached to 1 撮 像 is taken, and the position of the luminous occupancy imaged by the first moving image camera 103 a is displayed in the real-world object X-X The position and identification ID of the specified real world object 0 specified as the position of 0
1 0 3 b で 像 し た実世界才ブンェ ク 卜 〇 の画像 に 関連 付け の関連付け ら れた実世界ォブンェ ク 卜 ο の画像 お よ び位 をサィ バ 世界 ( ン ピ ュ 夕 シス テム 2 ) 上で to 口 する よ う にな つ てい る The image and position of the real world object ο associated with the image of the real world talented object 像 imaged in 103 b are displayed in the world of the world (computer system 2). I'm going to say it above
図 2 7 は 図 2 6 で 明 し た よ に第 1 の動画力 メ ラ  Figure 27 shows the first video power camera as explained in Figure 26.
-tth  -tth
1 0 3 a で撮像 し た付 m 子 1 1 の発光点の位置 と第 2 の動画力 メ ラ 1 0 3 b で撮像 し た実世界ォブジ X ク 〇 の画像 と の □ ま たは関連付け を 明す る た め の 図で め ス 図 2 7 に示すよ に ン ピ ュ タ シス テム 2 は 対 応付け手段 2 5 に よ り 発光時刻 T m にお いて第 1 の動 画力 メ ラ 1 0 3 a で撮像 し た画像に よ り 得 ら れた実世界 ォ ブン ェ ク 卜 0 b の識別 I D = mの符号 1 3 4 ( T m ) で示す付帯 子 l i b の発光 占 の位置座標 ( X m Y m ) を 、 第 1 の動画力 メ ラ 1 0 3 a の撮像タ ィ ミ ン グ に 同期 し て'第 2 の動画力 メ ラ 1 0 3 b で同一時刻 T m に撮 像 し た実世界ォ ノ ン ェ ク 卜 〇 b の画像 1 5 1 a と を □ する (図 2 8 ス テ ツ プ S 8 0 次いで ン ヒ ュ 一 夕 シス テム 2 は、 発光時刻 T m + The relationship between the position of the light-emitting point of the appendix 11 captured in 103 a and the image of the real world object X-ray captured in the second moving image camera 103 b is As shown in FIG. 27, the computer system 2 has the first moving force camera 1 at the light emission time Tm by the associating means 25 as shown in FIG. 27. 0 3a The identification coordinates of the real world object 0b obtained from the image picked up by 0a, the ID = m, and the position coordinates of the luminous occupancy of the accessory lib indicated by the code 1 3 4 (T m). X m Y m) in synchronization with the imaging timing of the first video power camera 103 a at the same time T m with the second video power camera 103 b. The image 15 1 a of the real world object 〇 b is changed to □ (FIG. 28, step S 80, and then the light emission time T m +
1 にお いて第 1 の動画力 メ ラ 1 0 3 a で撮像 し た画像に よ り 得 ら れた実世界ォブン X ク 卜 〇 b の識別 I D = m +The identification of the real world X X 〇b obtained from the image captured by the first moving image power camera 103 a in Step I D = m +
1 の符号 1 3 4 ( T m + 1 ) で す付帯素子 1 1 c の発 光 占 の 位置 座標 (座標 デ ' 夕 ) ( X m + 1 Y m +The sign of 1 is 13 4 (T m + 1). The position coordinates (coordinate data) of the luminous occupancy of the incidental element 1 1 c (X m + 1 Y m +
1 ) を、 第 1 の動画力 メ ラ 1 0 3 a の撮像タ ィ - ン グに 同期 し て第 2 の動画力 メ ラ 1 0 3 b で同一時刻 T m + 1 に撮像 し た実世界ォブン X ク h O c の画像 1 5 1 b を す る (ス テ ッ プ S 8 1 ) の よ う な動作 に よ り 映 像 ンテ ン ッ (画像) 内 に表示 さ れる それぞれの実世界 ォブジ X ク 卜 0 の画 f象 よび位 を 3 ン ピ ュ タ シス 丁 ム 2 上で □ す る とがでさ る 1) is synchronized with the imaging timing of the first video power camera 103a, and is captured at the same time Tm + 1 with the second video power camera 103b. Each of the real worlds displayed in the video content (image) by an operation like step 15 (step S81 1) of the image 15 The image and position of object X cut 0 can be extracted on 3 computer system 2
図 2 9 は 、 図 2 7 で説明 し た第 1 の動画力 メ ラ 1 0 3 a で撮像 し た付 Ϊ 子 1 1 の発光ハ占、ヽの位置 と第 2 の動画  FIG. 29 shows the occupancy of the light emitted from the appendix 11 taken by the first moving image camera 103 a described in FIG. 27, the position of ヽ, and the second moving image.
、❖  , ❖
力 メ ラ 1 0 3 b で撮像 した実世界ォ ブン X ク 卜 O の画像 と の関連付け にお \て 、 第 1 の動画力 メ ラ 1 0 3 a で 像 した付帯 子 1 1 の発光ハ占、ヽ の位置座 1 に該当 す る第 2 の動画力 メ ラ 1 0 3 b で撮像 し た実世界ォブン X ク 卜 O の画像上に可視マ一力 を重ねて表示 し た図で あ る In association with the image of the real world X-cut O taken by the force camera 103b, the light emission of the accessory 11 imaged by the first moving force camera 103a FIG. 5 is a diagram in which the visual force is superimposed on the image of the real world X-cut X taken by the second moving image force 103 b corresponding to the position 1 of ヽ.
すなわ ち 、 ン ピ ュ 一 夕 シス テム 2 は 、 対応付け手段 That is, the computer system 2 is associated with the association means.
2 5 お ぴマ一力情報生成手段 2 7 に よ り 、 発光時刻 T m にお いて 、 第 1 の動画力 メ ラ 1 0 3 a の撮像夕 ィ ン グに 1口 J期 し て第 2 の動画力 メ ラ 1 0 3 b で 1口 3 一時刻 T m に 撮像 し た 実世界オ ブ ジ ェ ク 卜 O b 'の 画像 1 5 1 ( T m ) にお ける 、 第 1 の動画カ メ ラ 1 0 3 a で撮像 し た画 像 に よ Ό 得 ら れた : 付帯素子 : L ; 1 . b < T) 発:ノし ハ占、、 の 位置座25 By the force information generation means 27, the second moving image J of the first moving image camera 103a at the light emission time Tm is taken for one second in the imaging evening. The first video camera in the image 15 1 (T m) of the real-world object Ob 'taken at one time T m with the camera 103 b Obtained from the image picked up by the camera 103a: Ancillary element: L; 1.b <T) Departure: Position of occupied by
( X m , Υ m ) 上にュ ―ザが視き刃 (X m, Υ m)
口 ' でき る 所定形状の可 視 一力 (マ 力 丁 一夕 ) M b を重畳する (図 3 0 , ス テ ッ プ S 9 0 ) o  Overlay Mb with a visible shape of the mouth that can be made (Fig.30, step S90) o
次いで 、 ン ピ ュ 一タ シス テム 2 は 、 発光時刻 T m + Next, the computer system 2 outputs the light emission time Tm +
1 にお いて 、 第 1 の動画力 メ ラ 1 0 3 a の撮像夕 ィ ン グに 期 し て第 2 の動画力 メ ラ 1 0 3 b で同一時刻 T m に 、 1, at the same time Tm with the second video power camera 103 b in preparation for the imaging evening of the first video power camera 103 a,
撮像 し た実世界ォブン X ク 0 b の画像 1 5 1 ( T m Image of the real world Oven X ku 0b taken 1 5 1 (T m
+ 1 ) にお ける 、 第 1 の動画力 メ ラ 1 0 3 a で撮像 した 画像 に よ り 得 ら れた付 子 1 1 b の発光 占 の位 座 ( X m + 1 Y m + 1 ) 上に ザが視 し さ る所定 形状の可視マ 力 (マ 力 デ 夕 ) M b を重畳する (ス テ V プ S 9 1 , な , ォ ブン X ク h 0 c に つ い て も 同+1), the position of the luminous occupancy of the tag 11b obtained from the image captured by the first moving image power camera 103a. (X m + 1 Y m + 1) is superimposed with a visible power (power output) M b of a predetermined shape to be seen by the user (Step S 91, na, obn X Same for h 0 c
,
様に ォブン ェ ク小 O c (付帯素子 1 1 c ) の T m よ び T m + 1 の位置に応 じて可視マ 力 M C が表示 さ れる の «士果 図 2 9 に示すよ う に 第 2 の動画力 メ ラ 1As shown in FIG. 29, the visible power MC is displayed according to the position of T m and T m + 1 of the small O c (attached element 11 c). Second video power camera 1
0 3 b で発光時刻 T m にお いて士曰像 し た実世界才ブジェ ク 卜 0 b 〇 C の画像 1 5 1 ( T m ) と 発光時刻 T mImage of a real world talented object 0 b 〇 C imaged at 0 3 b at emission time T m 0 b 〇 C and emission time T m
+ 1 で撮像 し た実世界才ブン X ク h 〇 b 〇 C の画像 1Image 1 of real world talent X X h 〇 b 〇 C taken at + 1
5 1 ( T m + 1 ) と の上に ォブン ェ ク 卜 〇 b O c に 対応する 可視 力 M b M C が 畳 し た状態で表示さ れて い る The visible power MbMC corresponding to the object 〇bOc is displayed in a folded state over 5 1 (Tm + 1)
の よ う に可視マ ―力 表示を行 つ と に り 11像を 閲 する ュ ―ザは 本シス テム に Ό き さ れて い る 実 世 、  The user who looks at the eleven statues by displaying the visible ticks as in the case of the real world that is used in this system,
界ォブン X ク 卜 を容易 に確 する と がでさ る 例 え ば の よ う にマ 力表示 さ れた画像を ン ピ ュ 一タ シス テム 2 の映像表示手段 2 6 にお ける 了 ィ ス プ レ ィ に表示 し そのマ 力 の位置をュ ザが入力手段 3 2 にお け る 例え ばマ ゥ ス で指定 (ク U ッ ク ) し た場合 3 ン ピ ュ 夕 シス テム 2 の メ モ V に a ― ド、 さ れた プ グラ ム に よ Ό 3 ン ピ ュ 夕 シス テム 2 に 例 え ば発光時刻 For example, an image which is displayed in a magnified manner as in an example in which the field X-cut can be easily confirmed is displayed on the image display means 26 of the computer system 2. Displayed on the play screen and the position of the force is specified by the user in the input means 32 (for example, by mouse). A to V, depending on the program attached.
T m に ヽ 該マ 力 の位置 に存在 し た付帯 子 1 1 が付帯 さ れたォブン ェ ク 卜 〇 の プ パテ ィ 情報 を得る と等の 所望 の動作を実行さ せる と が可能でめ る It is possible to execute a desired operation such as obtaining property information of the object to which the accessory 11 present at the position of the power is attached at T m.
の よ う に 本 施形台 では ザの入力手 3 2 にお ける マゥス操作に よ る 可視マ 1 力 ク ッ ク に応 じ て ン ピ ュ 夕 シ ス , テ ム 2 : 所望 (予 め 'プ 口 グ ラ ム さ れ た ) 動作 を実行さ せる こ と ができ る ため ヒ ュ ンィ ンタ フ X ス の使い勝手 を大幅 に 向上さ せる こ と がで さ る なお マ ゥ ス の ク リ ツ ク の代わ り に例 え ば丁 ィ ス プ レィ と して夕 ッ チパネルディ ス プ レィ を使用する と に よ り ス テ ン シルや指で画面上 に表示さ れたマ ―力 部分 を触れて 様に コ ン ビ ュ 夕 シス テム 2 に所望の動作Like this shaping table with the input hand 3 2 Response Ji and down pin Interview evening to your Keru that by the Mausu operation visible Ma first force-click-click to Mr. vinegar, Te-time 2: desired (which is pre-Me 'flop opening g) this to execute an operation As a result, the usability of the HyunTuff X can be greatly improved.Instead of the click of the mouse, for example, it can be used as a display. By using the touch panel display, you can use the stencil or your finger to touch the displayed force on the screen.
(対応す る ォ ブ ジ ェ ク ト 〇 の プ ロ パ テ ィ '情報取得動作 等 ) を実行さ せる こ と がでさ (Corresponding object properties' information acquisition operation, etc.)
図 3 1 は 本発明 に係 る 図 1 に示す実世界ォブン ェ ク 卜 識シス テム 1 の別の実施形態の全体動作 を 明す る ため の図でめ る  FIG. 31 is a diagram illustrating the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention.
本実施形 にお いては、 特に図 2 6 に示 し た実施形態 の第 1 の動画力 メ ラ 1 0 3 a 、 第 2 の動画力 メ ラ 1 0 3 b の視野領域 1 0 9 の一方ま たは両方 を最終的 に a. ■ ~~ザ に 供す る画像コ ンテ ンッ枠よ り も 大き < し 、 画像 Π ン テ ンッ枠外に存在す る 実世界ォブジ X ク 卜 の脇待機状 を第 1 の動画力 メ ラ 1 0 3 a 、 第 2 の動画力 メ ラ 1 0 3 b の 方 ま たは両方で撮像 して把握 し の把握 し た実 世界ォブンェ ク 卜 の識別情報 光位 発光時 占 を口 ' する よ つ に し た も のであ る  In the present embodiment, in particular, one of the visual field regions 109 of the first video power camera 103 a and the second video power camera 103 b of the embodiment shown in FIG. 26 is used. Or finally both a. ■ ~~ Larger than the image content frame to be provided to the user and wait for the side of the real world object X-cut that exists outside the image content frame. Identification information of the real world object that was captured and grasped by capturing the first video power camera 103a and the second video power camera 103b or both. It is intended to be used for a fortune-telling
すなわ ち 図 3 1 に示すよ う に ン ピ ュ " 夕 シス テ ム 2 にお ける 映像表示手段 2 6 に よ り 最終的 にュ ザ で あ る 受女厶  In other words, as shown in Fig. 31, the image display means 26 in the evening system 2 is a user who is finally a user.
口 夹に提供さ れる画像コ ンテ ン V枠は 1 6 1 で 示すよ に小 さ < ΠΧ Ah Ci れ の画 象 ンテ ン ッ枠 1 6The image content V frame provided to the user is 16 1 As shown, the size <<Ah Ci
1 の外側に は第 2 の動画力 メ ラ 1 0 3 b の視野範囲が 1Outside of 1, the visual field range of the second video camera 103 b is 1
6 2 で示すよ Ό に H§疋 さ れる 6 As shown in 2
更 に ン ピ ュ 夕 シス テム 2 にお ける 映像表示手段 2 Further, image display means 2 in the computer evening system 2
6 に よ り 第 2 の動画力 メ ラ 1 0 3 b の視野範囲 1 6 2 の外側に第 1 の動画カ メ ラ 1 0 3 a の視野範囲が 1 6 3 で示すよ に設定 さ れて い る そ し て 第 2 の動画力 メ ラ 1 0 3 b の視野範囲 1 6 2 と第 1 の動画力 メ ラ 1 0 3 a の視野範囲 1 6 3 が周辺領域の実ォブン X ク 卜 の脇待 機状態の 口' 識 貝域 と な り 更 にそ の外側の画面枠外近傍 領域が第 1 あ よ び第 2 の動画力 メ ラ 1 0 3 a よ び 1 0The field of view of the first video camera 103a is set outside the field of view 162 of the second video power camera 103b as shown by 163. In addition, the second moving image force 103 b and the field of view 162 of the first moving force camera 103 b are the actual moving X-cut of the peripheral region. The outside of the screen frame near the outside is outside the screen frame, and the first and second moving image power lenses 103 a and 10 0
3 b の視野外 と な る 。 なお 図 3 1 では 各実ォブン ェ ク 卜 〇 ( o a O g ) に 白丸をつ けて 各実ォブン ェ クIt is out of the field of view of 3b. In Fig. 31, each real object (o a O g) is marked with a white circle and each real object is
〇 a o g に付帯 して い る 付 子 1 1 ( に対応す る マ ―力 ) を示 し てい る 。 Shows the appendix 11 (corresponding to the force) attached to aog.
すなわ ち 本実施形態では 画像 ンテ ン 枠外に存 在する 実世界ォブジ ェ ク 卜  That is, in this embodiment, the real world object existing outside the image content frame is used.
O d 0 g の 内 第 1 の動画力 メ ラ 1 0 3 a お よ び / ま た は第 2 の動画力 メ ラ 1 0 3 b の視野領域に対応する ォ ブン ク 卜 〇 d 0 g の状態 (脇待機状 ) を 第 1 の 動画力 メ ラ 1 0 3 a の映像に基づ < 位置座 お び / ま た は第 2 の動画力 メ ラ 1 0 3 b に よ る 映像 と して ン ピ ュ 夕 シス テム 2 が " き口心 ¾ πθ6¾する と がでさ る  O d 0 g of the first moving image force 103 a and / or the second moving force corresponding to the visual field of the 103 b moving image 〇 d 0 g The state (side standby state) is defined as an image based on the image of the first moving image power camera 103a <the position and / or the second moving image power camera 103b. When the computer system 2 "puts the mouth center ¾πθ6¾,
のた め 例え ば画像コ ンテ ン ッ枠外に存在 し た実世 界ォプジ ェ ク 卜 (例 え ば 実ォブン ク O d o f ) が 2 の 画力 メ ラ 1 0 3 b の視野領域お よ び / ま た は 第 1 の動画力 メ ラ 1 0 3 a の視野領域に入つ た場 α で も 、 ン ピ タ シス テム 2 は 予め勵待機状 と し て把握 し て い た位置座 よ び映像情報 を利用 して 対応す る 実世界ォ ブジ X ク 卜 を ス ム ズにき 識する とがでさ る 。 Therefore, for example, a real world object that exists outside the image content frame (for example, a real object O dof) Is in the field of view of the power camera 103 b and / or the field of view of the first video camera 103 a, even if α It is possible to smoothly recognize the corresponding real world object X by using the position and video information that was previously grasped as a promotion standby letter.
図 3 2 は 図 3 1 の実施形 にお いて 第 1 の動画力 メ ラ 1 0 3 a の視野領域 と 第 2 の動画力 メ ラ 1 0 3 b の 視野領域 と を符号 1 6 4 で示すよ う に 同 し た mで め り 、 そ の他の構成お よび作用 は図 3 1 と 同様でめ る  FIG. 32 shows the field of view of the first video power camera 103 a and the field of view of the second video power camera 103 b in the embodiment of FIG. As shown in FIG. 31, other configurations and operations are the same as those in FIG. 31.
図 3 3 は 本発明 に係 る 図 1 に示す実世界ォブジ 工 ク 卜 心 シス テム 1 の別の実施形能の全体動作を 明する た め の 図でめ る  FIG. 33 is a diagram for illustrating the overall operation of another embodiment of the real-world object-centered system 1 shown in FIG. 1 according to the present invention.
なお 上述 し た全ての実施形 にお いて 付帯素子 1 In all of the embodiments described above,
1 は 位置情報出力部 1 5 作動部 1 6 お よ びセ ン シ ン グ部 1 7 の ち 少な < と も位 情報出力部 1 5 のみ を 有 して いればよ い 1 has only a few <and only the position information output unit 15 after the position information output unit 15 operating unit 16 and sensing unit 17.
そ し て 本実施形態にお け る付帯 子 1 1 は 位置情 報出力部 1 5 作動部 1 6 お よびセ ン シ ン グ部 1 7 の う ち 少な < と も位置情報出力部 1 5 お びセ ンシ ン グ部 In addition, in the present embodiment, the accessory 11 is one of the position information output sections 15, the operation section 16, and the sensing section 17, which is less than the position information output section 15. And sensing part
1 7 を備えてい る Has 1 7
すなわ ち 図 3 3 に示す実施形台 では 図 1 に示 し た よ に 識別 I D を割 当 て ら れ 実世界の ォブン 工 ク 卜 o に付帯さ れた付帯素子 1 1 は 図 2 に示す構成 にお い て さ ら に付帯素子 1 1 を付 する実世界ォブン ェ ク 卜 〇 の も  That is, in the embodiment table shown in Fig. 33, the identification element is assigned as shown in Fig. 1, and the attached element 11 attached to the real-world obu factory o is shown in Fig. 2. In the configuration, a real-world object with an additional element 11 is also provided.
状 ま たは 世界ォブンェ ク 卜 O の近傍の状台 ま た は 方 を咸知 し 、 し の咸知 した実世'界ォブン X ク 卜 〇 に 関する セ ンシ ン グ情報を ン ピ 一夕 シス テム 2 のセ ン シ ング指示送信手段 4 0 お よびセ ン シ ン グ情報受信手 段 4 1 を構成する 発光指示命令 /信号受信部 2 1 0 に対 して送信するセ ン シ ン グ部 1 7 を備えてい る Or a platform near World Object O Or the sensing information transmission means 40 and the sensing information transmitting means of the empire overnight system 2 on the sensing information about the real world 'world ob X X', which the person has learned. Equipped with a sensing unit 17 that transmits to the light emission instruction command / signal receiving unit 210 that constitutes the sensing information receiving unit 41
発光指示命 /信号受信部 2 1 0 は 、 付毋素子 1 1 の セ ンサか ら の実世界ォブン X ク 卜 0 に関する セ ン シ ン グ 情報 を受信する よ う にな て り 、 3 ン ピ ―夕 シス テ ム 2 は 、 実世界ォフ ンェ ク 0 に関する セ ン シ ン グ情報 を必要に よ Ό 図 2 の実施形目おで特定 し た実世界ォブン ェ ク 卜 0 の位置 と と も に 刖記識別情報で特定 さ れる ォブン The light emission instruction / signal receiving section 210 receives sensing information on the real world X-box 0 from the sensor of the additional element 11, and outputs the signal. -Evening system 2 needs sensing information on real world object 0. The location of real world object 0 specified in the implementation form in Fig. 2 is also required. The object identified by the identification information
X ク 卜 o 、 ォブン ェ ク 卜 o に 関連す る情報 ま たは情報処 理機能に 関連付けて き口 ' 識する う にな つ てい る It is intended to be associated with information related to X-cut o, obect o, or information processing functions.
ま た 、 図 3 3 にお いて 、 光指示命令 /信号受信部 2 In addition, in FIG. 33, the optical instruction command / signal receiving unit 2
1 0 は付帯 子 1 1 を特定する 別 I D が含まれた例え ば R F 信号等か ら な る セ ン シ ン グ指示命令を付帯素子 110 is an accessory 1 that specifies an accessory 11 and includes a sensing instruction command, such as an RF signal, that includes another ID.
1 に 向けて送信す る よ に構成さ れてい る なお 、 その 他の構成 につ いては 、 図 2 に示す構成 と 略同等で あ る た め 、 その 明は 略ま た は簡略化す る It is configured to transmit to 1. In addition, since the other configuration is almost the same as the configuration shown in FIG. 2, the description is omitted or simplified.
付帯素子 1 1 は 、 発光指示命 /信号受信部 2 1 0 か ら のセ ン シ ング指示命八をセ ン シ ン グ指示又信手段 1 7 b で受信 し 、 識別 報比較手段 1 7 c に よ 、 受信 し た セ ン シ ン グ指示命 ΊΠ に含まれる識別 I D が 自 分に割 り 当 て ら れた識別 I D であ る と 判断 した場 α に 、 刖記感知 し た実世界ォブン X ク 0 に 関す る セ ン シ ン グ情報 を感知 情報送信手段 1 7 d か ら 例え ば R F 信号 と して 光指 命令 /信 受信部 2 1 0 に向 けて送信する The incidental element 11 receives the sensing instruction 8 from the light emission instruction / signal receiving unit 210 by the sensing instruction or communication means 17b, and compares the identification information comparison means 17c. Thus, when it is determined that the identification ID included in the received sensing instruction command is the identification ID assigned to the user, the real-world object that has been written is detected. X Sensing information related to 0 Transmit from the information transmission means 17 d to the optical command / signal receiving section 210 as an RF signal, for example.
の と さ 発光指示命令 /信号受信部 2 1 0 は の セ ン シ ン グ情報 を受信する よ にな てい る  The flash instruction command / signal receiving unit 210 receives the sensing information of the flash.
ま た更 に別 の構成 と して 付 ητ 糸子 1 1 は 感知情報 送信手段 1 7 d に よ り 刖記感知 した実世界ォブン X ク h に 関す る セ ン シ ン グ情報 を 自 分 に割 り 当て ら れた識別 Further, as another configuration, the attached ητ thread 11 divides the sensing information about the real world object Xkh sensed by the sensing information transmitting means 17d into itself. Assigned identification
I D と と も に 発的 に発光指示命令 /信号受信部 2 1 0 に向 けて送信 し 発光指示命令 /信号受信部 2 1 0 は のセ ンシ ン グ情報お よ び識別 I D を受信 し 受信 し た識 別 I D か ら セ ン シ ン グ情報発信元の付堂 子 1 1 を n 別する う にな て い る Along with the ID, it is sent to the light emission instruction command / signal receiving section 210 in a spontaneous manner, and the light emission instruction command / signal receiving section 210 receives and receives the sensing information and the identification ID of the LED. Of the sensing information transmission source is identified by the identified ID.
れは 例え ば倉庫な ど に かれて い る Π にセ ンサ It is located in a warehouse, for example.
1 7 a と して加速度セ ンサ付さ の付 AT 子を取 り 付 けて お さ その製品が動か さ れた ら その動さ を加速度セ ン サで感知 し そのセ ン シ ン グ情報 を発光指示命令 /信号 受信部 2 1 0 に送信 し 例 え ば何 ら か の警報を発生する よ う なァ プ U ケ シ 3 ン に適用 し た り ま た はセ ンサ 1Attach an AT sensor with an acceleration sensor as 17a.When the product is moved, the movement is sensed by the acceleration sensor and the sensing information is obtained. It is applied to a U-case 3 which sends a light emission instruction command / signal to the receiving unit 210 and generates some kind of alarm, for example, or the sensor 1
7 a と し て ί皿曰 度セ ンサが付 子 1 1 に搭載さ れ その 温度セ ンサに よ り 所定時間毎に発光指示命令 /信号受信 部 2 1 0 に 、)曰 7a, the sensor is mounted on the attachment 11 and the temperature sensor sends it to the light emission instruction command / signal reception unit 210 at predetermined time intervals by the temperature sensor.
氣度を 通知する よ う な ァ プ U ケ シ a ン に週 用 し る も ので あ る  It is a week for U-Case a that informs you of the temperature
セ ンシ ン グ情報 の送信の さ Ό か け ( U ガ ) は 上述 した加速度セ ンサの例では例え ばセ ンサ の出力がめ る 閾 値 を超え た場 で あ Ό ίΠ曰Π. セ ンサの例では例え ば所定 の時間 にな つ た場 α であ り 、 れ ら の場 □ にセ ン シ ン グ 情報が付帯素子 1 1 か ら発光指示命令 /信号受信部 2 1In the case of the acceleration sensor described above, for example, the transmission of sensing information (U-ga) is a case where the output of the sensor exceeds a threshold value that can be detected, for example. Then, for example, At which time the sensing information is sent from the incidental element 11 to the light emitting instruction / signal receiving section 21 1
0 に送信 さ れる 発光指 ! 叩令 /信号受信部 2 1 0 は のセ ン シ ン グ情報 と と も に付 素子 1 1 か ら 送信 さ れ て < る識別 I D を受信 し の識別 I D に基づさ ど の実 世界才ブン ク 卜 のセ ノ シ ン グ情報であ る か を 別す る と がでさ る The light emitting finger transmitted to the device 0! The command / signal receiving unit 210 receives the identification ID transmitted from the element 11 together with the sensing information of the It is possible to determine whether the information is based on the sensing information of the real world talented
なお セ ンサ 1 7 a で感知する 付帯素子 1 1 を付帯す る 実世界ォブン X ク 卜 〇 台  In addition, a real world X-ray X-ray with the auxiliary element 11 sensed by the sensor 17a
の状 や実世界ォブン X ク 卜 o の近傍の状能 と は 例え ばォブン ェ ク 白 身の ί <皿曰 度 振 動 加速度 動さ 傾さ 、 圧力 場所な ど と い た も の や ォブン X ク を取 り 巻 く 環境の温度 湿度 騒立 曰 The shape of the object and the statue in the vicinity of the real world oven X are, for example, ovenek white ί <dish, vibration, acceleration, tilt, pressure place, etc. Environmental temperature and humidity surrounding
C o 2濃度、 , 花粉( Ό多 :さ な ど ,と い 、つ た ;ら ので あ る 。 Co 2 concentration,, pollen (a lot of rice: salmon, etc.).
図 3 4 に示すよ Ό に コ ン ピ ュ ―タ シス テム 2 は 関 連付け 積手段 4 7 に よ Ό 掘 3 3 で取得 し たセ ン シ ン グ情報を 図 1 8 で 明 し た各ォブジ X ク の フ レ ム 画像内位置丁 夕 抽出 フ ァ ィ ル 1 3 5 お よ びォブン ェ ク 卜 名 に関す る 丁 ―夕 フ ァ ィ ル 1 3 7 が識別 I D で 合さ れたォブジ X ク 了 夕 ベ ス 1 4 1 に対 し て結 □ し て 各ォブジ X ク 卜 の位直お よ びセ ン シ ン グ τ 夕 が関 付 け ら れた位 m • セ ン シ ン ク 丁 ―タ 抽出 フ ァ ィ ル 1 8 1 を 生成 し ( ス テ V プ S 1 0 0 ) の各ォ ブン X ク h の位 置 セ ン シ ン グ丁 夕 抽出 フ ァ ィ ル 1 8 1 に対 し て識別 As shown in Fig. 34, the computer system 2 uses the associative means 47 to extract the sensing information obtained in the excavation 33 from each of the information shown in Fig. 18. The file in the frame image of the object X X 1 3 5 and the file associated with the object name-the file 1 3 7 X Closing evening Base 1 4 1 □ □, and the order of each objet X-cut and the sensing τ evening associated with m • Sensing Generates a file extraction file 18 1 (step S 100) and assigns the position of each object X h to the sensing file 18 1 Identification for
I D を丑通項 と し て ン ピュ タ シス テム 2 上 に予め登 録済みの各ォブン X ク 卜 の属性情報 フ ァ ィ ル 1 8 3 を結 □ してォブン X ク 管理 夕 ベ ス 1 8 5 を 成する と を示す図であ る The attribute information file 183 of each Xbox X-Cut registered in advance on the computer system 2 with the ID as the Oxtsu term is connected. □ It is a diagram showing that the X-based X management
図 3 4 にお いて 位置 • セ ン シ ン グ了 夕抽出 フ ァ ィ ル 1 8 1 は 図 1 6 で 明 し た各才プン X ク 卜 の フ'レ ム 画像内位置丁 夕抽出 フ ァ ィ ル 1 3 5 に対 して識別 I Location in Fig. 34 • Sensing completed evening extraction file 18 1 is the location extraction image in the frame image of each X-cut box shown in Fig. 16. Identify to cells 135
D を 通項 と し て付帯素子 1 1 のセ ンサか ら 出力 さ れる セ ン シ ン グ情報 を追加 した も のであ る また ン ピ ュ タ シス テム 2 上 に予め 録済みの各ォブジ 工 ク の属 性情報 フ ァ ィ ル 1 8 3 は 図 1 7 で 明 し たォブジ ク 卜 名 に 関す る 夕 フ ァ ィ ル 1 3 7 に対 してセ ンサで得 ら れる セ ン シ ン グ情報の属性 も 1 の属性情報 と し て予 め 録 し てお い た も ので あ る の予め登録済みのセ ン シ ン グ情報の属性情報 と しては 図示の う に 度 湿 度 照度 体 曰 心拍 位置 内容物な どがあ る The sensing information output from the sensor of the incidental element 11 with D as a general term is added, and each object is recorded on the computer system 2 in advance. The attribute information file 183 is the sensing information obtained by the sensor for the evening file 1337 relating to the object name shown in Fig. 17. The attribute information of the sensing information that was previously recorded as attribute information 1 is also registered as the attribute information of the sensing information registered in advance as shown in the figure. Heart rate position Content is present
図 3 4 に示すォプンェ ク 管理丁 タ ベ ス 1 8 5 の 例では 例 え ば識別 I D m に対応する 実世界ォ ブン X ク 卜 では 体 、曰  In the example of the open management table 1885 shown in Fig. 34, for example, in the real world open X cut corresponding to the identification ID m, the body
1皿 心拍な どがセ ン シ ン グ情報 と し て登録 さ れ ま た識別 I D m 一 1 に対応する 実世界ォブン X ク 卜 では B  1 dish Heartbeats etc. are registered as sensing information.
inn度 湿 照度な どがセ ン シ ン グ情報 と し て得 ら れる と が予め フ ァ ィ ル上 に登録 さ れてい る そ し て の登録済みのセ ン シ ン グ情報 に対 し て図 3 3 の 実施形態で取 し たセ ン シ ン グ情報 を対応 さ せ の対 応付け をォブン X ク h 管理了 タ ベ ス 1 8 5 でォブン ク 卜 情報 を管理 し 供する も のでめ る  The degree of inn, humidity, etc. that can be obtained as sensation information is compared to the registered sensing information registered in advance in the file. The correspondence of the sensing information taken in the embodiment of FIG. 3 3 to the correspondence of the sensing information is managed in the job management table 18 5 to manage and provide the sensing information.
図 3 5 は 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 口心 It シス 丁ム 1 の別 の実施形態の全体動作を説明す る た め の 図でめ る FIG. 35 shows the real world object X shown in FIG. 1 according to the present invention. FIG. 2 is a diagram for explaining the overall operation of another embodiment of the system 1
図 3 5 に示すよ う に 、 3 ン ピ ュ 夕 シス τム 2 は 、 そ の 関 付け畜積手段 4 7 に り ゝ 図 3 4 に示 し た位置 セ ン シ ン グ丁 ―夕 抽出 フ ァ ィ ル 1 8 1 をィ ン 夕 ―ネ ッ で あ る I P 網 1 5 1 上に配置さ れて い る セ ン シ ン グ情報 丁 夕 ベ ス 1 8 7 に 録 さ れて い る ィ ンタ ―ネ ッ 卜 上 に予め登録済みの各ォブン ェ ク 卜 の属性情報 フ ァ ィ ル 1 As shown in FIG. 35, the three-stage system 2 is connected to the associative storage means 47, and is located at the position shown in FIG. 34. File 18 1 is recorded in the sensing information located on the IP network 15 1, which is located on the network. Attribute information file of each object registered in advance on the network 1
8. 4 に対 し て識別 I D をせ通項 と して結合 ( ン ク ) し てォブジ 工 ク 卜 管理丁 ―夕 ベ ス 1 8 5 を 成 し てい る The identification ID for 8.4 is combined as a general term (link) to form the Obuji Plant Management Dinner-evening 1185
(ス テ ッ プ S 1 1 0 )。 (Step S110).
図 3 6 は 、 本発明 に係 る 図 1 に す実世界ォブン ェ ク 口' 識 シス テム 1 の別の 施形態の全体動作 を 明する 実  FIG. 36 shows the overall operation of another embodiment of the real world object recognition system 1 shown in FIG. 1 according to the present invention.
た め の 図であ る It is a diagram for
図 3 6 に示すよ う に 、 ン ピュ ―タ シス テム 2 は 、 図 As shown in FIG. 36, the computer system 2
1 9 に示 し た各ォブン X ク 卜 の フ レ ム画像内位置つ 夕 抽出 フ ァ ィ ル 1 3 5 に 図 3 5 で取得さ れたセ ン シ ン グ 情報を加 えて位置 • セ ン シ ン グ丁 夕抽出 フ ァ ィ ル 1 819 The position of each X-cut in the frame image shown in Fig. 9 is extracted by adding the sensing information obtained in Fig. 35 to the extracted file 13 5 Single extraction file 1 8
2 を構成 し 、 の位置 • セ ン シ ン グ了 夕 抽出 フ ァ ィ ルConstruct 2 and position • Sensing end
1 8 2 を ン ピ ュ タ シス テム 2 上のォブン X ク 卜 リ ス 卜 フ ァ ィ ル 1 3 9 に 関連付けてォブン ェ ク 卜 管理了 タ ベ ―ス 1 4 5 を構築 し てい る (ス テ ッ プ S 1 2 0 ) 。 In this example, the object management database 1445 is constructed by associating 182 with the object X file list 13 on the computer system 2. Step S120).
サィ パ 上のォブジ X ク 卜 υ ス フ ァ ィ ル 1 3 9 に ¾ い てサィ パ 世界 ( ン ピ ュ 夕 シス テム 2 上 ) で管理 す る ォブン X ク の プ Π パテ ィ と しては にセ ン シ ン グ情報 も提供でさ る よ Ό に してい る One of the properties of OBON X, which is managed in the SYPA world (on the computer system 2), as described in OBJECT X CLUSTER FILE 13 on SYPA Sensing Information is also provided.
図 3 7 は 、 図 2 6 に示す実施形 目、 にお いて各付 素子 FIG. 37 shows each of the components in the embodiment shown in FIG. 26.
1 1 に セ ン シ ング部 1 7 を図 3 3 に示すよ に備え る と と も に 、 ま た 3 ン ピ ュ ―夕 シス テム 2 にお いて は 、 発光 指示命令装置 5 の代わ に送受信装置 1 9 0 を備え 、 し の送受信 置 1 9 0 (発光指示命令送信手段 2 1 、 セ ン シ ン グ指示送信手段 4 0 お よ びセ ン シ ン グ情報受信手段11 is provided with a sensing section 17 as shown in FIG. 33, and in the 3-pump-evening system 2, transmission / reception is performed in place of the light emission instruction command device 5. A transmission / reception unit 190 (a light emission instruction transmission means 21, a sensing instruction transmission means 40, and a sensing information reception means).
4 1 に対応 ) は 、 セ ン シ ン グ指示命令 を付帯素子 1 1 に 送信 し 、 付帯 ; 子 1 1 か ら セ ン シ ン グ情報を受信す る う に構成 した 図で あ る 従 て 、 その他の構成お よ び作 用 は図 2 6 お よ び図 3 3 と 同 じで あ り 、 その 兑明 は省略 する (Corresponding to 41)) is a diagram configured to transmit a sensing instruction command to the attached element 11 and receive sensing information from the attached element 11. , And other configurations and operations are the same as those in FIG. 26 and FIG. 33, and description thereof will be omitted.
図 3 8 は 、 図 2 7 に示 し た付 子 1 1 の発光ハ占、、 の位 置 と第 2 の動画力 メ ラ 1 0 3 b で撮像 し た実世界ォブジ ク 卜 0 の画像 と の結合 にお いて付帯素子 1 1 の情報 と して更 にセ ン シ ン グ了一 夕 を加え た 図であ る  Fig. 38 shows the image of the real world object 0 taken with the second moving image camera 103b, and the position of the light emission of the tag 11 shown in Fig. 27, FIG. 13 is a diagram in which sensing is further added as information of the auxiliary element 11 in the connection of FIG.
すなわ ち 、 ン ピ ュ 一 夕 システム 2 は 、 関連付け ¾ つ' 手段 4 7 に よ Ό 、 発光時刻 T mにお いて第 1 の動画力 メ ラ 1 0 3 a で撮像 し た画像に よ り 得 ら れた実世界ォ ブジ ェ ク 卜 の識別 I D = m の符号 1 3 4 ( T m ) で示す付帯 素子 1 1 b の発光ハ占、ヽ の位置座 ( X m Y m ) お よび 上記発光時刻 T mにお いてセ ン シ ン グさ れたセ ン シ ン グ テ一夕 D m (符号 1 9 1 a で示す ) を 、 第 1 の動画力 メ ラ 1 0 3 a の撮像夕ィ 、 ン グに 期 して第 2 の動画力 メ ラ 1 0 3 b で 時刻 T m に ί象 し た実世界才ブジ X ク o b の画像 1 5 1 ( T m ) と を結 □ する (図 3 9 ス テ ヅ プ S 1 3 0 That is, the computer system 2 is based on the image captured by the first moving image camera 103a at the light emission time Tm according to the associating means 47. Identification of the obtained real-world object: occupied light emission of the auxiliary element 1 1b indicated by the code 13 4 (T m) of ID = m, position of X (X m Y m) and the above The sensing time D m (indicated by reference numeral 191 a) sensed at the flash time T m is changed to the imaging time of the first moving image camera 103 a. Real world talented buzzer X at the time Tm with the second video power camera 103b Ob image 1 5 1 (T m) (Fig. 39 Step S 1 3 0
次いで ン ピ ュ 夕 シス テム 2 は 発光時刻 T m + Next, the luminous system Tm +
1 にお いて第 1 の動画力 メ ラ 1 0 3 a で撮像 し た画像 に よ り 得 ら れた実世界才プジ X ク h の識別 I D = m + 1 の 符号 1 3 4 ( T m + 1 ) で示す付 子 1 1 C の発光点 の位置座標 ( X m + 1 Y m + 1 ) およ び上記発光時 刻 T m + 1 にお いてセ ン シ ン グさ れたセ ン シ ン グ ―夕In FIG. 1, the identification ID of the real-world pupil X ku h obtained from the image picked up by the first moving image camera 103 a is denoted by the code 1 3 4 (T m + 1), the position coordinates (X m + 1 Y m + 1) of the light emitting point of the subscript 1 C, and the sensor sensed at the light emitting time T m + 1 Sing-Evening
D m + 1 (符号 1 9 1 b で示す ) を 第 1 の動画力 メ ラD m + 1 (indicated by reference numeral 19 1 b) is
1 0 3 a の撮像夕 ィ ン グに 同期 し て第 2 の動画力 メ ラIn synchronization with the imaging evening of 103 a, the second moving image
1 0 3 b で 同 ―時刻 Τ m + 1 に撮像 し た実世界ォ ブン ク 卜 0 b の画像 1 5 1 ( T m + 1 ) を結 □ する (ス テ ッ プ S 1 3 1 : の ,よ う な: 作 に よ り 映像 ンテ ン ッSame at 10 3 b-Connect the image 15 1 (T m + 1) of real world object 0 b taken at time Τ m + 1 (Step S 13 1 , Yona: Depending on the work, video content
(画像 ) 内 に表示さ れる それぞれの実世界ォブジ X クEach real world object X displayed in (image)
〇 の画像 位 β お よ びセ ンシ ング丁 タ を ン ピ ュ 夕 シス テム 2 上で する と がでさ る When the image position β and the sensing parameter of 〇 are removed on the computer system 2,
の結果 ン ピ ―夕 シス テム 2 は 結 □ さ れた実 世界ォブン ク 卜 ο の画像 位置お よ びセ ン シ ン グ丁 夕 に基づい て 所望の 夕 ィ ン グ (例 え ば 受信 に応 じ て あ る い はュ ザか ら の指示に応 じ て ) にお いて 上 記実世界ォ ブン X ク 〇 の画像上 に お け る 例え ば発光 占 の位 座 (ォブン ェ ク 卜 0 b の位置座標) 上に対 し 対応 tt  As a result, the system is connected to the desired evening (for example, reception is possible) based on the image position of the real world object ο and the sensing area. Or in response to instructions from the user) on the image of the real world Oven X Quad, for example, the position of the luminous occupation (Object 0b) Tt
する - 付 ftr素子 1 1 b で得 ら れたセ ン シ ン グ 7" ―夕 を 所定の表示形態 に加ェ して重畳表示する と がで さ る 例え ば ォブン ェ ク 卜 と しての ヒ O b に付 W さ れた 付帯素子 1 1 b が例え ばォブン ェ ク 卜 ( ヒ 卜 ) 0 b の バ ィ 夕 ルデ タ ( 生体情報 : : 血圧 、 脈拍 . 体温等 の つ 夕 ) を検出でき る バィ タ ル τ タ 感知セ ンサ 1 7 a を有 して い る 場合、 検出 さ れたバィ 夕 ルつ— 夕 を数値 (パィ 夕 ル値 ) と して対応する ォブン ク 卜 〇 b 上に重 表示 する と も でき る Yes-Appends the sensing 7 "obtained by the ftr element 11b to the specified display form and superimposes it. For example, as an object W attached to hin Ob For example, the incidental element 11b can detect the bypass data (human) 0b of the data (biological information: blood pressure, pulse, body temperature, etc.). If there is a sensor 17a, it is also possible to display the detected date and time as a numerical value (by night value) on the corresponding object box 〇b.
の 果 、 例え ばヒ 卜 のォブン X ク 卜 〇 b の移動に応 じて位置が変わ る毎に 、 その移動 に応 じてバィ 夕 ル値の 表示位置が連動する ため 、 ザは 、 ォブジェ ク O b の移 位置毎のパィ 夕 ル値の移 り 変わ り を視認す る こ と がでぎ る  As a result, for example, every time the position changes according to the movement of the X-ray of the human X b, the display position of the Bayer value is linked according to the movement. It is possible to visually observe the change in the pile value at each Ob position.
ま た 例 え ば、 複数のォブンェ ク ト それぞれに付帯さ れた付帯 子 1 1 が例え ばその周 囲 の温度 を検出す る温 度丁 夕感知セ ンサ 1 7 a を有 し て い る 場合、 複数の付 帯素子 1 1 それぞれに よ り 検出 さ れた複数の温度 を数値 Further, for example, a case in which an accessory 11 attached to each of a plurality of objects has, for example, a temperature sensor 17a for detecting the temperature of the surrounding area. Numerical values of multiple temperatures detected by each of the multiple incidental elements 1 1
(パィ 夕 ル値) お よび ド ッ 卜 と し て対応す る複数の付帯 素子 1 1 それぞれの上 に重畳表示 し 、 かつ各 ド ッ 卜 を線 分で んで折れ線グラ フ と して表示する と も でき る 図 4 0 は 、 図 2 9 に示 し た付帯素子 1 1 の発光 占 の位 置 と第 2 の動画力 メ ラ 1 0 3 b で撮像 し た実世界ォブジ ェ ク 卜 〇 b の画像 と の 関連付け にお いて実世界ォブンェ ク 卜 0 b の画像 { 1 5 1 ( T m ) L 5 1 ( T m + 1 ) } 上 に可視マ一力 M b を重ねて表示 し た も の に更に付帯素 子 1 1 の 情報 と し ' て - セ ン シ ン グデ -一夕 D m D m + 1(Pile value) and a plurality of associated elements 11 as dots are superimposed and displayed on each of them, and each dot is displayed as a line graph with a line segment. FIG. 40 shows the position of the light-emission occupancy of the auxiliary element 11 shown in FIG. 29 and the real-world object 〇b imaged by the second moving image camera 103 b. In the association with the image, the visual abilities Mb are superimposed and displayed on the image {15 1 (T m) L 5 1 (T m + 1)} of the real world object 0b. In addition, the information of ancillary element 1 1 is added to '-Sensingde-overnight Dm Dm + 1
(図 3 8 お よ び図 3 9 参照) を加え た 図で あ る 。 そ の他 の構成お よ び作用 は同 じ であ Ό 、 その説明は省略する の 果 、 ュ ザが上記ォブン X ク o b に付 さ れ た付帯素子 1 1 b のセ ン シ ン グ了 ―タ を視き し た い と考 えた際に 、 入力手段 3 2 にお ける 例え ばマ ゥ ス で対応す る 可視マ 力 M b を指定 ( ク リ ッ ク ) ·し た場 a 、 ン ピ ュ 夕 シス テム 2 の メ モ U に π 一 さ れた プ P グ ラ ム に よ り 、 n ン ピュ 一夕 シス テム 2 は 、 ク ッ ク さ れた可視 マ ―力 M b に対応する付 素子 1 1 b に よ り 感知 さ れた セ ン シ ン グ丁 夕 を 、 例 え ば可視マ一力 M b の表示位置 上 、 あ る い はその近傍に表示する と がでさ 、 ザは 表示さ れたセ ン シ ング丁 一夕 を視き する と がでぎ る 図 4 1 は 、 本発明 に係 る 図 1 に示す実世界ォブン X ク 卜 識シス テム 1 の別の実施 台 (See Fig. 38 and Fig. 39). Other The configuration and operation of the device are the same, and the description thereof is omitted. As a result, the user sees the completion of the sensing of the auxiliary element 11 b attached to the above-mentioned X-ob. When the user wishes to perform the task, for example, in the input means 32, the user designates (clicks) the corresponding visible power Mb with a mouse. By the program P which is set to π in the memo U of the system 2, the n computer system 2 is configured to have the attached element 1 1 corresponding to the cooked visible power M b. When the sensing data detected by b is displayed on or near the display position of the visible force Mb, for example, it is displayed. FIG. 41 shows another embodiment of the real world observable X-cut knowledge system 1 shown in FIG. 1 according to the present invention.
形 の全体動作 を 説明す る ため の 図で あ る  It is a diagram for explaining the whole movement of the shape
本実施形台 に ける 付帯素子 1 1 は 、 位置情報出力部 Ancillary element 11 in this embodiment table is a position information output unit.
1 5 、 作動部 1 6 お よびセ ン シ ン グ部 1 7 の う ち 、 少な15, working part 16 and sensing part 17
< と も位置 '|害報出力部 1 5 お よび作動部 1 6 を備 えて い る 。 <Both have a position '| harm information output unit 15 and an operation unit 16.
作 部 1 6 にお け る 作用 子 1 6 a は 例ん ばァ ク チ ュ ェ タ で あ り の ァ ク チュ ェ ―夕 は 例 ば メ 的 入力 に応答 して実世界上 に何 ら か の力学的な作用 を施す も の (例 え ばバィ ブ レ タ モ 夕 ス ピ 力 L E D 等 ) に加えて 搭載 さ れて い る 3 ン ピ ュ 夕 に対 して所 定の動作を指示する プ口 グ ラ ム等 含まれる  The operator 16a in the operation unit 16 is, for example, an actuator, and the actor is in the real world, for example, in response to a mechanical input. In addition to the one that performs the mechanical action of (e.g., a vibrator LED), instructs the specified operation to be mounted Included
すなわち 本ネ差成 にお いて 発光指示命 /信号受信 部 2 1 0 は、 付 子 1 1 を特定する 別情報を含む作 動命 を例え ば R F 信号に よ り 送信する In other words, the light emission instruction / signal reception The unit 210 transmits an operation including, for example, an additional information specifying the tag 11 by an RF signal, for example.
の と さ 、 各付 ■ w ヾ子 1 1 は、 その作動命令 を作動命 受信手段 1 6 b で受信 し 、 識別情報比較手段 1 6 c に よ Ό 、 受信 し た作動命令に含 れ 6^別 I D が 白 分に割 り 当 て ら れた識別 I D であ る と判断 し た場 α に 、 作用 ン)、 子であ る ァ ク チュ ェ ―タ 1 6 a に よ り 所定の 作 を p.行 す る よ にな Ό てい る  Each of the appenders 11 receives the operation command by the operation command receiving unit 16b, and the identification information comparison unit 16c includes the operation command in the received operation command. When it is determined that the different ID is the identification ID assigned to the white part, the action is performed on α), and the predetermined work is performed by the child actuator 16a. p.
ま た 、 付帯ン 子 1 1 はゝ そ の送信手段 1 6 d に り 、 必要に応 じ て ァ ク チ .ェ ―夕 作動命令受信確口心信号お よ び / ま た は ァ ク チュ ェ一 夕 の実行結果 (作動結果 ) を含 むァ ク チ ュ X 一夕 実行通知信号を発光指示命令 /信号受 信部 2 1 0 に送信する  In addition, the auxiliary element 11 is provided with its transmitting means 16d, and may be actuated, if necessary, to receive an operation command reception confirmation oral signal and / or an actuating signal. X X including the overnight execution result (operation result) Sends an overnight execution notification signal to the light emission instruction command / signal receiving unit 210
発光指示命八 /信号受信部 2 1 0 は 、 付帯 子 1 1 か ら ァ ク チ ュ ェ 夕作動命令受信確口' 信号 ま た はァ ク チ ュ ェ一夕 実行通知信号 を受信 し 、 その受信 果に基づ < ァ ク チュ X 夕 の作動機能 に 関する 情報を 、 対応す る ォブ ジ X ク 卜 〇 の識別情報 、 ォブン X ク 卜 〇 に 関連す る 情報 ま たは情報処理機能 に 関 付 けてき口心識す る よ に な て い る  The light emission instruction command / signal receiving section 210 receives the actuating operation command reception confirmation signal or the actuating overnight execution notification signal from the accessory 11 and outputs the signal. Based on the reception result, the information about the operation function of the work X X is transferred to the identification information of the corresponding object X, the information related to the job X, or the information processing function. I'm getting involved
図 4 2 は 、 本発明 に係 る 図 1 に示す実世界オブジ ェ ク 卜 識シ ス テ ム 1 の別 の実施形態の全体動作を説明する た め の 図であ る  FIG. 42 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
図 4 2 は 、 図 2 6 に示す実施形態 にお い て各付帯素子 FIG. 42 shows each auxiliary element in the embodiment shown in FIG.
1 1 に作 部 1 6 を 図 4 1 に示すよ う に備え る と と も に 、 ま た ン ピ 夕 ンス テム 2 にお ける発光指 7 命令 /信 号受信部 1 9 0 (発光指示命令送信手段 2 1 、 作動命令 送信手段 4 5 お ぴ受信手段 4 6 に対応 ) は 、 作動命令 を付帯素子 1 1 に送信 し 、 付帯 子 1 1 か ら 作用 実行通 知お よ び / ま た は作動命令受信確 信号を又信す る に構成 し た 図で あ る 従 つ て 、 そ の他の構成 よ び作用 は図 2 6 お よ び図 4 1 と 同 じであ り 、 その説明 は 略す る 。 A work 16 is provided in 11 as shown in Fig. 41, and In addition, the light emitting finger 7 command / signal receiving section 190 (corresponding to the light emitting instruction command transmitting means 21, the operation command transmitting means 45, and the receiving means 46) in the illumination system 2 is activated. A command is transmitted to the accessory element 11, and the action execution notification and / or the operation command reception confirmation signal is transmitted from the accessory element 11 again. Other configurations and operations are the same as those in FIGS. 26 and 41, and a description thereof will be omitted.
図 4 3 は 、 図 2 7 に し た付 子 1 1 の 光ハ占、ヽの位  Fig. 43 shows the occupancy of the light in Fig. 27,
、 置 と第 2 の動画力 メ ラ 1 0 3 b で撮像 し た実世界ォブン  Real world image taken with the camera and the second video power camera 103b
X ク 卜 〇 の画像 と の D にお いて付帯素子 1 1 の情報 と して更 に ァ ク チ . X ―夕 作動機能 に関する 情報を加 え た 図であ る o In X with the image of the X-ray, the information is added to the information of the auxiliary element 11 in D. The X-E is a diagram with information on the operating function added.
すなわち 、 ン ピ ュ 一 タ シス テム 2 は 、 関連付け 積 手段 4 7 に よ り 、 発光時刻 T mにお い て第 1 の動画力 メ ラ 1 0 3 a で撮像 し た画像 に よ り 得 ら れた実世界ォブジ ク 卜 の識別 I D = mの符号 1 3 4 ( T m ) で示す付帯 素子 1 1 b の発光点の位置座標 ( X m Y m ) ね び 上記発光時刻 T mにお いて動作さ れたァ ク チュ X 一 夕 1 That is, the computer system 2 obtains the image obtained by the first moving image power camera 103 a at the light emission time Tm by the associating means 47. The coordinates of the light emitting point of the incidental element 1 1b indicated by the code 13 4 (T m) with the identification ID of the real world object ID = m (X m Y m) and at the above light emission time T m Worked X X 1
6 a の作動機 ή l匕b を表す情報 A m (符号 2 0 1 a で示す ) を 、 第 1 の動画力 メ ラ 1 0 3 a の撮像タ ィ ン グ に 1口 J期 し て第 2 の動画力 メ ラ 1 0 3 b で |pj一時刻 T mに撮像 し The information Am (indicated by reference numeral 201a) representing the actuator 6a of the 6a is transmitted to the imaging wing of the first moving image camera 103a for one mouth J period. Image at time Tm at time pm
、❖  , ❖
た実世界ォブン X ク 卜 〇 b の画像 1 5 1 ( T m ) と をImage 1 5 1 (T m) of the real world Oven X
D する (図 4 4 ス テ ッ プ S 1 4 0 ) o D (Fig. 44 4 step S1400) o
次 で 、 ン ピ ュ 夕 シス テム 2 は 、 発光時刻 T m + 1 にお いて 1 の ft]画力 メ ラ 1 0 3 a で it f象 し た画 象に よ り 得 ら れた実世界ォブジ X ク 卜 の識別 I D m + 1 の 符号 1 3 4 b で示す付帯 子 1 1 c の発光 占 の位置座Next, the computer system 2 sets the light emission time T m + 1 in 1 ft] Image Power Camera ID 103 ID of the real world object X obtained from the image created by it f 3 a Illumination of 1c c
( X m + 1 Y m + 1 ) お よ び上記発光時刻 T m + 1 にお いて動作さ れた ァ ク チュ X 夕 1 6 a の作動機能 に 関す る 情報 A m + 1 (符号 2 0 1 b で示す ) を 第 1 の 動画力 メ ラ 1 0 3 a の 像タ ィ ン グに 期 して第 2 の 動画力 メ ラ 1 0 3 b で 時刻 T m + 1 に撮像 し た実世 界ォ ブジェ ク 卜 0 b の画像 1 5 1 ( T m + 1 ) を結 す る (ス テ V プ S 1 4 1 ) , の よ Ό な動作 に よ り 映像 ンテ ンッ (画像 ) 内 に表示さ れるそれぞれの実世界ォ ブン X ク 卜 〇 b の画像 位置お よ びァ ク チュ X 夕 の作 動機能 に関す る情報 を ン ピ タ シス テム 2 上で する と がでさ る (X m + 1 Y m + 1) and information on the operation function of the work X a 16 a that was operated at the above light emission time T m + 1 Am + 1 (sign 20 1b) at the time Tm + 1 with the second video power camera 103b in preparation for the image timing of the first video power camera 103a. The image 15 (Tm + 1) of the image 0b is connected (Step S1 4 1), and displayed in the video content (image) by the proper operation of The information about the image position of each real world X-ray image b and the operation function of the work X-Yu can be obtained on the computer system 2.
の 果 ン ピ タ シス テム 2 は 結 さ れた実 世界ォブン X ク 〇 の画像 位置お よ びァ ク チュ X 夕 の作動機能 に 関する 情報 に基づい て 所望の 夕 ィ ン グ As a result, the operator system 2 can set the desired evening based on the information on the image position of the connected real world X and the operation function of the X X
(例 え ば 受信に応 じて あ る い は . ザか ら の指示 に 応 じ て ) にね いて 上記実世界ォブン ク 卜 〇 の画像上 にお け る 例え ば発光 占 の位置座標 (ォブン X ク 卜 〇 b の 位置座 ) 上 に対 し 対応す る 付帯素子 1 1 b の ァ ク チ ュ ェ 夕 の例 え ば作動 to果を表す情報を所定の表示形(For example, in response to a reception or in response to an instruction from the user) on the image of the real-world object above, for example, the position coordinates of a light-emitting element X position (position of b)) The corresponding incidental element 1 1b Example of actuation of the element
(数値 ァ メ シ 3 ン等 ) に加ェ して 畳表示する と ができ る (Numerical value, etc.) can be displayed in tatami
図 4 4 は 図 2 9 に示 し た付 m 子 1 1 の発光点の位 置 と 2 の 画力 メ ラ 1 0 3 b で撮像 し た実世界ォブン ェ ク 卜 〇 b の画像 と の 関連付け にお いて実世界ォブジ X ク 0 b の画像 { 1 5 1 ( Τ m ) 1 5 1 ( T m + 1 ) } 上に可視マ 力 M b を重ねて表示 し た も の に更に付帯素 子 1 1 の情報 と し て ァ ク チュ X 夕 の作動機能に 関す る 情報 A m A m + 1 ( 図 4 3 お よ び図 4 4 参照 ) を加 え た 図であ る その他の構成 び作用 は同 じでめ り 、 そ の説明 は 略する Fig. 44 shows the positions of the light-emitting points of the tag 11 shown in Fig. 29. In the association between the image of the real world object 〇b and the image of the real world object 〇b taken with the imager 103 b of the second device, the image of the real world object Xb 0b {15 1 (Τm) 5 1 (T m + 1)} with visible power M b superimposed on it, and further information on the actuation function of the actuator X X as information on the auxiliary element 11. A m + 1 (see Fig. 43 and Fig. 44) is added to the figure. Other configurations and operations are the same, and the description is omitted.
の結果 ュ ―ザが上記ォブン ェ ク 卜 O b に付帯さ れ た付帯素子 1 1 b の作動機能に係 る 情報 を視認 し た い と 考え た際 に 入力手段 3 2 にお ける例え ばマ ウス で対応 する 可視マ ―力 M b を指定 (ク U ッ ク ) し た場合 π ン ピ ュ 夕 シス テム 2 の メ モ U に D ー ド さ れた プ口 グ ラ ム に よ り ン ピ ュ 夕 シス テム 2 は、 ク リ ッ ク さ れた可 視マ 力 M b に対応する 付帯素子 1 1 b の ァ ク チ ュ ェ一 夕 の例え ば作動結果 を表す情報 を 、 例 え ば可視 力 M b の表示位置上 あ る い はその近傍に表示す る と がで き ュ ザは 表示 さ れた作動結果情報 を視認する と がでさ る  For example, when the user wants to visually recognize the information on the operation function of the attached element 11b attached to the above-mentioned object Ob, the input means 32 may be used as an example. When the corresponding visual force Mb is specified (clicked) by the mouse, the note of the system π is displayed. The switching system 2 displays information indicating, for example, the operation result of the actuation of the incidental element 11b corresponding to the clicked visual force Mb, for example, visible. It can be displayed on or near the display position of the force M b, and the user can visually recognize the displayed operation result information.
図 4 5 は 図 4 1 に示 した実施形態 に お いてァ ク チュ ェ ―夕 と して可視光発光 子 1 6 a を使用 し た場合の 図 で あ その他の構成お よび作用 は図 4 1 と 同 じ で あ る なお 付帯素子 1 1 は 発光指示命令 /信号受部 2 1 0 か ら の発光指示命 に応答 し て発光する 発光素子 1 5 c と し て 上述 し た よ Ό に赤外付 W素子を備えて い る が の赤外の付帯ン)、子に加んて ァ ク チュ ェ タ と し て可視 光発光素子を備えてい る のであ る FIG. 45 is a diagram in the case where the visible light emitter 16a is used as a work in the embodiment shown in FIG. 41, and other configurations and operations are shown in FIG. Note that the auxiliary element 11 is the same as the light-emitting element 15c which emits light in response to the light-emitting instruction from the light-emitting instruction command / signal receiving unit 210, as described above. Applicable with W element It has a visible light emitting element as an actuator in addition to the child.
すなわ ち 図 4 5 にお いて 付帯素子 1 1 にァ ク チ ェ 夕 と して備え ら れて い る 可視光発光素子に対 して発 光指示叩 "P /信号ス信部 2 1 0 が可視光発光指示命 を 送信する と 付帯ンs子 1 1 の作動命令受信手段 1 6 b は、 の可視光発光指示命令を 1ί  That is, in FIG. 45, the light emitting instruction tap is applied to the visible light emitting element provided as an actuator in the auxiliary element 11 1. When the device transmits the visible light emission command, the incidental command receiving means 16b of the attached device 11 transmits the visible light emission command to the device.
受信 し 3ή  Receive 3 受 信
m別情報比較手段 1 Means for comparing information by m 1
6 c に よ 受信 し た可視光発光指示命 に含ま れる 別 I D が 自 分に割 り 当 て ら れた識別 I D で め る と判断 し た場 α に の可視光発光指示命令 に従 て可視光発光 素子 1 6 a を作動 さ せて 可視光発光指示命令への応答 信号を発光指示命 /信号受信部 2 1 0 に送信す る 6 If the other ID included in the visible light emission instruction received by c is determined to be the identification ID assigned to itself, it is visible according to the visible light emission instruction command to α. Activate the light emitting element 16a and send a response signal to the visible light emission instruction command to the emission instruction command / signal receiving unit 210.
発光指示命 /信号受信部 2 1 0 は 付帯素子 1 1 か ら 可視光発光指示命 への応答信号 を受信 し 付 素子 The light emission instruction / signal receiving section 210 receives a response signal from the auxiliary element 11 to the visible light emission instruction, and receives the response signal.
1 1 の可視光 光ン 子 1 6 a が作 し た と を知 る と がでさ る It is known that the visible light photon 16a of 1 1 was made
図 4 6 は 図 4 5 に示 し た よ つ に付 子 1 1 に ァ ク チ ュ ェ ―夕 と して可視光発光素子 1 6 a を有する 場 に お い て 図 2 6 に示 し た第 2 の動画力 メ ラ 1 0 3 b を設 けた場 □ の 図で あ その他の構成お よ び作用 は図 4 5 お よび図 2 6 と 同 じであ る  FIG. 46 is shown in FIG. 26 in the case where the visible light emitting element 16 a is used as an accessory in the appendix 11 as shown in FIG. In the case where the second video power camera 103b is installed □ The other configuration and operation are the same as those in FIGS. 45 and 26.
図 4 7 は 本発明 に係 る 図 1 に示す実世界ォブン ェ ク 卜 。心識シ ス テム 1 の別の実施形 の全体動作 を説明する た め の図であ Ό 特に動画力 メ ラ の視野内へのォブン X ク 卜 の登塲処 a を 明する た め の 図で め る 図 4 7 に す実施形態では、 付 子 1 1 b を付帯 しFIG. 47 is a real world object shown in FIG. 1 according to the present invention. FIG. 3 is a diagram for explaining the overall operation of another embodiment of the knowledge system 1, particularly for clarifying the position a of an X-X cut within the visual field of a moving image camera. Come out In the embodiment shown in Fig. 47, the attachment 11b is attached.
,
た実世界のォブン X ク 0 b が動画力 メ ラ 1 0 3 の視野 内 に登場する場 Π の処理 を示 して い る すなわ ち 、 図 4Fig. 4 shows the processing when the real world object Xb 0b appears in the field of view of the video power camera 103.
7 ( a ) ('こ示すよ Ό に 、 時刻 T t 1 に いて 占線で 囲 んで示す植物、 丁 ィ ス プ レィ 、 力 パ ンで あ Ό 、 それぞれ 付帯素子を有する 付帯素子 1 1 a 、 1 1 c 、 1 1 d を付 7 (a) ('As shown here, at time T t 1, the plants, the dolly, and the power pans surrounded by the occupied lines are the auxiliary elements 11 a, 1 1c, 11d
 ヽ
帯する 3 つ のォブン X ク 卜 0 a 、 0 c 、 O d が B心識 さ れ て い る 状況 にお いて 、 図 4 7 ( b ) に示すよ う に 、 時刻In a situation where three obi X cuts 0a, 0c, and Od are known as B, as shown in Fig. 47 (b), the time
T = t 2 にお いて新た に ¾ At T = t 2 ¾
付 子を有する 付 子 1 1 b を付 : w gfc し た ヒ 卜 で あ る ォ プン X ク 卜 0 b が動画力 メ ラ With tag 1 Tag 1b: w Opened X cut 0b, which is a gfc shot, is a moving image
1 0 3 の視野内 に登場 し た と する Appear in the field of view of 103
の と さ 、 コ ン ピ ュ 夕 シス テム 2 は 、 対応付け手 As a result, the computer system 2 is a
2 5 に よ り 、 所定の時定数 Δ T の 間 に 、 そのォブン ェ ク 卜 o b の 識別 I D と 付帯素子 : 1 1 b (の 発光 占 を 図 4 7According to FIG. 25, during the predetermined time constant ΔT, the identification ID of the object ob and the luminous occupancy of the incidental element: 11 b (FIG.
( b ) に示すよ Ό にき口心識 し た と さ (図 4 8 ス テ ッ プ SAs shown in (b), it is clear that you have come to mind (Fig. 48 Step S
1 5 0 ) 、 そ の識別 I : D の ォ ブ ン X ク h 〇 b が新た に登 場 し た と ン ピ ュ 夕 シス テム 2 は 。心識する (ス テ ッ プ150 0), and its identification I: The system X 2 is that the new X X h 〇 b of D has newly entered. Know (Step
S 1 5 1 )。 S 15 1).
 ,
なお 、 必要があれば 、 ォ ブン X ク h への発光指示命 の頻度 を可変 と し 、 登場判定 を し た後 に 、 低下さ せて い た才ブン X ク 卜 〇 b への発光指示命令の頻度 を既 に 識 し てい る他のォブジ X ク 卜 と 同 じ頻度 と m] じ レベル に戻 す と がでさ る o  In addition, if necessary, the frequency of the light emission instruction command to the oven Xk h is made variable, and after the appearance is determined, the light emission instruction command to the attenuated X light b, which has been reduced, is given. To the same frequency and m] level as other obcts that already know the frequency of
図 4 9 は 、 本 明 に係る 図 1 に示す実世界才ブン X ク 卜 き口 ' 識シス テム 1 の別 の実施形態の全体動作 を 説明する た め の 図で あ り 、 特に動画カ メ ラ の視野外へのォブン ク 卜 の退場処理を 説明する ため の 図であ る FIG. 49 illustrates the overall operation of another embodiment of the real world smart X-connect system 1 shown in FIG. 1 according to the present invention. This is a diagram specifically explaining the process of leaving an animation out of the field of view of a video camera.
図 4 9 に示す実施形態では、 付帯素子 1 1 を付帯 し た 実世界のオ ブジェ ク 卜 〇 が動画カ メ ラ 1 0 3 の視野外 に 退場す る 場合 の処理 を 示 し て い る 。 すな :わ ち 、 図 4 9 In the embodiment shown in FIG. 49, a process in the case where an object 実 in the real world with the attached element 11 exits out of the visual field of the moving image camera 103 is shown. Sun: Fig. 49
( a ) に示すよ う に 、 時刻 T = t 1 にお いて 占線で囲 ん で示す植物、 ヒ ト 、 力バ ン 、 デイ ス プ レイ でめ り 、 それ ぞれ付帯素子を有す る付帯素子 1 1 a 、 1 1 b 、 1 1 c 、As shown in (a), at time T = t1, plants, humans, power vans, and display devices surrounded by occupied lines each have ancillary elements. Ancillary elements 11a, 11b, 11c,
1 1 d を付帯する 4 つ のォ ノ ンェ ク 卜 0 a 、 〇 b 、 〇 c 、1 The four orthogonals 0 a, 〇 b, 〇 c,
〇 d A/4 口心識 さ れて い る 況にお いて、 図 4 9 ( b ) に示す よ Ό に 、 時刻 T = t 2 にお いてオブジェ ク 卜 O b が矢印〇 d A / 4 In a situation where people are aware of the mind, as shown in Figure 49 (b), at time T = t2, the object O b
1 9 1 で示すよ う に動画力 メ ラ 1 0 3 の視野外に退場 し た とす る Let's say that you leave the field of view of the video power camera 103 as shown by 191
し の う なォブジ ェ ク 卜 O b が動画カ メ ラ 1 0 3 の視 野領域外 に退場 し た ¾ 口 に 、 π ン ピ ュ ー 夕 シス テム 2 は、 所定 の時定数 Δ T の 間 に 、 そのオブジ ェ ク 卜 o b の識別 When the observable object Ob leaves the video camera 103 out of the visual field area, the π-computer system 2 sets the time constant ΔT for a predetermined time constant. Then, the identification of the object ob
I D と 付帯素子 1 1 b の付 w 泰糸子か ら の発光ハ占、、 と がき口心識 で さ な い と さ ( 図 5 0 ; ス テ ッ プ S 1 6 C » ) 、 そ の識別The ID and the attached element 11b are attached. W The light emission from Taitoko, and the inquisitive mind (Fig. 50; step S16C »)
I D の ォブジェ ク 卜 0 b が視野領域 1 0 9 か ら 退場 し た も の c »t識する (ス テ ッ プ S 1 6 1 )。 The object 0b of the ID exits from the visual field region 109, and the object is c »t detected (step S1661).
の う に退場 し た と 口心識 した後は、 ォブン X ク 卜 〇 b への発光指示命 の頻度 を低下 さ せて、 4ιιι 用 な通信の 頻度を低下 さ せる と 共に 、 退場 し たォブジ ェ ク 卜 〇 b の 付帯素子 1 1 b の付帯素子か ら の無駄な発光に よ る 消費 After confusing that he / she has been sent off, the frequency of the command to emit light to Obn X-Cult〇b is reduced, the frequency of communication for 4ιιι is reduced, and the obedient is also sent off. Attached element of project 〇b 1 1b Consumption due to unnecessary light emission from the attached element of b
Ε1力 を 削減する こ と がでさ る 図 5 1 は 本 明 に係 る 1 に す実世界ォブン X ク 卜 き口心刃識 シス テム 1 の別の実施形 の全体動作 を 明する た め の 図で あ 特に動画力 メ ラ を複数台 又けて 体 測里を行 う 処理 を説明する ため の図で あ る Ε1 Can reduce power Fig. 51 is a diagram for illustrating the overall operation of another embodiment of the real world of X-Central core knowledge system 1 according to the present invention. FIG. 7 is a diagram for explaining a process of performing body surveying between platforms.
図 5 1 に示す実施形態では ォブンェ ク h o に付帯 さ れて い る 付帯素子 1 1 の付 素子か ら の発光 を口心識する 動画力 メ ラ を複数台 (図 4 0 で は X Y Z 軸 に対応 さ せた 3 台 の動画力 メ ラ 1 0 3 X 1 0 3 y 1 0 3 z を け 各動画力 メ ラ か ら 得 ら れる 発光ハ占、、座 to に基づ < 角測量か ら 得 ら れる実空間ォブン X ク 卜 の空間位置情 報 を取得する も のであ る なお 本実施形能では 3 台 の動画力 メ ラ 1 0 3 X 1 0 3 y 1 0 3 Z の レ ンズ系 の光軸が X Y Ζ 軸 と し て直交す る よ う に配置 し た例 を示 して い る が 動画力 メ ラ か ら の 2 次元 フ レ ム画像 信号か ら 抽出 さ れる 座 か ら 二角測 で 当 該ォブン X ク 卜 O に付 す る 付 子 1 1 の付帯 子の発光ハ占、、座標 を計算で き る配置でめれば 任 の配置でよ い も ので あ る ま た 複数台の動画力 メ ラ の フ レ ム は 1口]期 し て い る も の と す る  In the embodiment shown in FIG. 51, a plurality of moving image lenses (or the XYZ axes in FIG. 40) are used to detect the light emission from the auxiliary element 11 attached to the object ho. Apply the three video power cameras that correspond to each other and apply the light emission intensity obtained from each video power camera. The spatial position information of the obtained real space X-X is obtained. In this embodiment, the lens system of three video power cameras 103 X 103 Y 103 Z An example is shown in which the optical axes are arranged so as to be orthogonal to the XY axis, but from the position extracted from the two-dimensional frame image signal from the moving image camera. Any arrangement can be used as long as the arrangement and the coordinates of the illuminator of the attachment 11 attached to the object X cut O in the angle measurement can be calculated and the coordinates can be calculated. Multiple The moving force ra of the full-les-beam shall be the even of you are 1-neck] period
図 5 1 の実施形態では 刖 図 4 のス テ ッ プ S 8 にお いて ン ピ ュ 夕 シス テム 2 は X Y Z 軸 と し て 直交する光軸 を 3 台の動画力 メ ラ 1 0 3 X 1 0 3 y 1 0 3 Z か ら 抽出 さ れ 1口】期 し て い る 各 フ レ ム画 像内での発光座 ( X m Y m ( Z m Y m ( X m z m ) か ら 3 次元争空間で の座標 ( X m Y m Z m ) を計 する の 3 次兀実空間での位置座 と ォブン X ク の識別 I D と 同期 し て い る注 巨 フ レ ム時間 T m と を予め取 り 込ま れていた ン ピ ュ ―夕 シス テム 2 上の情 報 ォブン X ク 卜 任意の情報処理機能等 と 関連付け る 図 5 2 は 本発明 に る 図 1 に示す実世界ォブン X ク き 識シス テム 1 の別の実施形 の全体動作 を 目兑明す る た め の 図であ り 特 に他の物な ど に よ り 隠蔽さ れ る ォブ ン X ク の ラ V キ ン グ処理 を説明する ため の 図で あ る 本実施形 で は 図 5 2 ( a ) に示すよ う に 時刻 TIn the embodiment of FIG. 51 刖 In step S8 of FIG. 4, the computer system 2 uses three optical axes orthogonal to the XYZ axes for three moving image cameras 103 X 1 0 3 y 1 0 3 Extracted from Z and 1 port] The emission site (XmYm (ZmYm (Xmzm)) in each frame image Coordinates in space (X m Y m Z m) Note that the location in the third-order real space and the huge frame time Tm synchronized with the identification ID of the Xbox X are pre-loaded. 2 Information X-X on the upper side Fig. 52 shows the overall operation of another embodiment of the real-world X-X knowledge system 1 shown in Fig. 1 according to the present invention. This is a diagram for the sake of clarification, and is a diagram particularly for explaining the LaV King processing of an object X which is concealed by another object. Is the time T as shown in Fig. 52 (a).
= t 1 にお いて 占線で囲んで示す植物 ヒ 力 バ ン ティ ス プ レ であ Ό それぞれ付帯素子を有する 付帯 子 1 1 a 1 1 b 1 1 c 1 1 d を付帯する 4 の ォ ブジ X ク 卜 0 a O b O c 0 d がき口心識 さ れて い る 状 況 にお いて 図 5 2 ( b ) に示す う に 時刻 T t 2 に いてォブン X ク 卜 〇 b が移動する と に よ り そ の 付帯 子 1 1 b の発光が別 のォブン ェ ク O d に よ り 隠 蔽さ れた と する = t1 is a plant hygiene vanity spray surrounded by a occupied line. 帯 Auxiliary element with ancillary elements 1 1 a 1 1 b 1 1 c 1 1 In the situation where X-cut 0 a O b O c 0 d is recognized, the X-cut X moves at time T t 2 as shown in Fig. 52 (b). It is assumed that the light emission of the accessory 11b is concealed by another object Od
の う に付帯素子 1 1 b の発光が別 のォブン ェ ク o d に よ り 隠蔽さ れた とする と 動画力 メ ラ 1 0 3 a は ォブン ェ ク 卜 0 b の付帯素子 1 1 b の発光 を 識で さな Assuming that the light emission of the incidental element 11b is concealed by another object od as described above, the moving image lens 103a becomes light emitting of the incidental element 11b of the object 0b. In knowledge
< な る <Naru
の と ぎ ン ピ ュ タ シス テム 2 は 時刻 T = t 2 に いて口心識 して い たォブン X ク 卜 0 b の付帯素子 1 1 b の発光がき口心識でぎな い場合 (図 5 3 ス テ ッ プ S 1 7 In the case where the light emission of the auxiliary element 1 1b of the obn X-cut 0b, which was known at time T = t2, cannot be detected (Fig. 5). 3 Step S 1 7
0 → Υ E S ) 3 :ン ピ ,ュ ' 夕 シス テ ム 2 は 過去 の 時刻 τ t 1 にお ける 第 2 の動画カ メ ラ 1 0 3 b の 影画像 か ら 過去の発光点 を含むォブジェ ク 卜 O b (D n郭 を捕 捉する処理 を行 う (ス テ ッ プ S 1 7 1 ) なお では 才ブン ク 卜 ο b は人で あ る か ら 、 人の 郭 を画像処理 に よ つ て抽出する 0 → Υ ES) 3: System time is past time The object O b (D n section containing the past light-emitting points is captured from the shadow image of the second moving image camera 103 b at τ t 1 (step S 1 7 1) Since the talent ο b is a person, the hull of the person is extracted by image processing.
そ して ン ピ ュ 夕 シス テム 2 は 捕捉さ れたォブ ジ ク 卜 0 b の權郭 に基づいて、 付帯素子 1 1 b の発光 がき 。心識でさ な い 間 は、 第 2 の動画力 メ ラ 1 0 3 b の撮影 画像か ら ォ ブン ク 卜 0 b の輪郭の移動 を追跡す る と に よ 5 2 ( c ) に示すよ う に、 才ブン ェ ク 卜 O b の付帯する 付帯素子 1 1 b の発光の 時的 蔽を補兀 し 、 ォ ブン ク 卜 0 b (付帯素子 1 1 b ) の位置 を予測する Then, the computer system 2 emits light from the incidental element 11b based on the right of the captured object 0b. As long as you are not aware of it, follow the movement of the contour of object 0b from the image taken by the second moving image camera 103b as shown in Fig. 52 (c). Thus, the temporal obscuration of the light emission of the incidental element 11b with the incident object Ob is compensated for, and the position of the observable element 0b (the incidental element 11b) is predicted.
(ス テ ッ プ S 1 7 2 ) (Step S 1 7 2)
ス テ ッ プ S 1 7 1 S 1 7 2 の捕捉追跡処理以外の処 理 と し て ン ピ ュ 夕 シス テム 2 は 隠蔽される 直刖 の 隣接 フ レ ―ム画像 (例 え ば、 t = t 0 t 1 にお け る 第 2 の動画力 メ ラ 1 0 3 b の撮影画像 ) に基づいて 例 え ば画素値 の相関状態に よ り ォブン ェ ク 卜 〇 b の移動方 向 よ び移動距離 に基づ く 動きべ ク 卜 ルを算出 し (図 5 As processing other than the acquisition and tracking processing of step S 17 1 S 17 2, the computer system 2 uses the immediate adjacent frame image to be concealed (for example, t = The moving direction and movement of the object b based on the correlation between the pixel values, for example, based on the second moving image force at t0 t1 (the captured image of the camera 103b). The motion vector is calculated based on the distance (Fig. 5
4 ス テ V プ S 1 8 0 )、 算 出 し た動 き ベ ク 卜 ルか ら 次 に発光を 識でさ る であ ろ う 位置 を推定 し (ステ V プ S4 Step V S 180), and from the calculated motion vector, a position where the next light emission will be detected is estimated (Step V S
1 8 1 ) そ の領域 を優先 し て発光点 を捜す (ス テ ッ プ1 8 1) Search for the light-emitting point by giving priority to that area (step
S 1 8 2 ) と も で さ る 。 S 18 2).
本実施形態の例で は 、 ス テ ッ プ S 1 7 1 S 1 7 2 の 処理 あ る い はス テ ッ プ S 1 8 0 S 1 8 2 の処理 に よ り 、 隠蔽さ れたォ ブン X ク h 0 b の移 位置が推定 - 捕 捉 さ れて い る ため 、 図 5 2 ( d ) に示すよ にゝ あ る 時 にあ い も匕 刻 T t 3 て 、 ォブン ェ ク 卜 〇 b が隠蔽状 か ら 脱 して 、 再度 、 そ の付帯素子 1 1 b の発光がき。心識 さ れナ 状台目 P にお いて 、 迅速 に ォブジ X ク h 0 b (付帯素子 1 1 b ) を検出する と ができ る In the example of the present embodiment, the processing in step S 17 1 S 17 2 or the processing in step S 180 S 18 2 Since the position of the hidden shadow X 0 h 0 b has been estimated and captured, as shown in FIG. Then, the object b comes out of the concealed state, and the incidental element 11b emits light again. It is possible to quickly detect the object X 0 h (attached element 1 1 b) in the shape P
図 5 5 は 、 本発明 に る 図 1 に示す実世界ォブジ X ク h 識シス テム 1 の別 の実施形目 の全体動作 を 明する た め の図で あ 、 特にォ ブン ク 卜 の付帯す る付帯素子 か ら の発光 占 を口心識する た め の発光パタ ン のテ ン プ レ に対 し て付 子の過去の発光部分画像 を反映 し て 過去の発光部分画像 と 相似 し たテ ン プ レ 卜 を使用 し た 処理を示す図であ る  FIG. 55 is a diagram for illustrating the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention, and in particular, it is accompanied by an object. A template similar to the past light-emitting partial image by reflecting the past light-emitting partial image of the light-emitting pattern on the template of the light-emitting pattern to make a sense of the light emission from the attached element. FIG. 9 is a diagram showing a process using a sample.
本実施形 にお いて 、 コ ン ピ 夕 シス テム 2 は 、 口' 識すベさ実ォブン ェ ク 卜 の発光を確実に口心識する た め に 刖掲図 6 や図 8 で口兑明 し た差分処理 を実行 し て得 ら れた フ レ ム画像 n 2 2 7 に対 し て 、 過去の付 素子 1 1 の 発光部分画像 と相似 し たテ ン プ レ ― 卜 2 3 1 a を用 いな が ら 差分処理後フ レ ム 画像 n 2 2 7 の全領域に対 して 矢印 2 2 9 で示す よ う に ッ チ ン グ処理 を行 (ス テ ッ プ S 1 9 0 ) 。  In this embodiment, the computer system 2 is described in FIG. 6 and FIG. 8 in order to surely recognize the light emission of the vesicular object that is recognized. A template 231a similar to the past light-emitting partial image of the attached element 11 is added to the frame image n227 obtained by executing the subtraction processing. In the meantime, the whole frame of the frame image n227 after the difference processing is subjected to the touching processing as shown by an arrow 222 (step S190).
次いで 、 ン ピ ュ一タ シス テム 2 は 、 マ ッ チ ン グ処理 で算出 し た座 毎のテ ン プ レ ― に対す る 識距離 (相 趣度 ) を計算 してその き口心 距離の分布 2 2 8 を取得する Next, the computer system 2 calculates an intellectual distance (interest) for the template for each locus calculated by the matching process, and calculates the perceived distance of the mouth center distance. Get distribution 2 2 8
(ス テ V プ S 1 9 1 ) 。 こ の結果、 得 ら れたき刃 (Step V S191). As a result, the resulting blade
口 ' 距離分布 2 2 8 に -3o け る 距離 差 (相違度の差) に基づいて 最 S 、 口 t c距離の い (相 違度の小 さ い) 信号を 先順位 1 位 、 次の信号 を 2 位等 の よ う に優先認識順位を決め る とがでさ る  Mouth distance distribution Based on the distance difference (difference in degree of difference) of -3o to 2 2 8, the signal with the highest S and the mouth tc distance (smallest degree of difference) is the first signal, the next signal Priority recognition order, such as 2nd place
し たがっ て、 コ ン ビ ュ ―夕 シス テム 2 は 優先順位 の 高 い も の を付帯素子 1 1 の発光 子 ら の発光信号画像 と 判定する こ と に よ り 優先順位 1 位の座 を所望の ォ ブジ ェ ク ト o に付帯 さ れて い る付 素子 1 1 の発光 子 の発光点位置、 すなわち 付帯素子 1 1 の位置 引 い て は ォブジ ェ ク ト 〇 の位置 と判定する とがでさ る (ス テ ッ プ S 1 9 2 ) 。  Therefore, the combi-evening system 2 desires the first-priority locus by judging the higher-priority object as the light-emitting signal image of the light-emitting elements of the incidental element 11. When the position of the light emitting point of the light emitting element of the attached element 11 attached to the object o of the attached element 11, that is, the position of the attached element 11 is subtracted, the position of the object is determined. (Step S192).
図 5 6 は、 図 5 5 に示 し た実施形態にお いて過去の発 光部分画像をテ ン プ レ 卜 と して使用 し た処理を示す 図 で あ る  FIG. 56 is a diagram showing a process in which a past light emission partial image is used as a template in the embodiment shown in FIG. 55.
本実施形態では、 認識すベさ実ォ ブジェ ク の発光 を 確実 に認識する た め に ン ピ ュ ―夕 シス テム 2 は 差 分処理後の フ レーム画像 η 2 2 7 に対 して 過去の付帯 素子 1 1 の発光部分画像 をテ ンプ レ 卜 2 3 1 b と し て 用 い なが ら 差分処理後フ レ ム画像 n 2 2 7 の全領域 に 対 し て 矢 印 2 2 9 で示す よ う ί:こ マ 'ソ チ ン グ処理 を 行 う In the present embodiment, in order to surely recognize the light emission of the object to be recognized, the system 2 performs the past processing on the frame image η 2 27 after the difference processing. While the light emitting partial image of the incidental element 11 is used as a template 2 3 1 b, the entire area of the frame image n 2 27 after the difference processing is indicated by an arrow 2 29 for the entire area of the frame image n 2 27. Option: Perform the sorting process.
(ス テ ッ プ S 2 0 0 ) 。 (Step S200).
次いで、 コ ン ピ ュ ー 夕 ン ス テ 2 は、 マ V チ ン グ処理 で算出 し た座標毎のテ ン プ レ に対する π'ΐ 識 icB離 (相 違度) を計算 してその口心識距離の分布 2 2 8 a を取得す る (ス テ ッ プ S 2 0 1 ) 。 の結果 得 ら れた 距離分布 2 2 8 a にお け る 距 離差 (相違度 の差) に :基づい て 、 最 ' ΐ Ό:、 刃 ; Next, the computer display 2 calculates the π′ΐ recognition icB distance (difference degree) with respect to the template for each coordinate calculated in the V-matching process, and calculates the difference between the two. The distribution of the recognition distance 2 228 a is obtained (step S 201). Based on the distance difference (difference in degree of difference) in the distance distribution 228a obtained as a result of the following:
口' 距離 の い Mouth 'distance
(相埋度の 小 さ い 口 (Small filling
) 信 を優先順位 1 位 次の信号 を 2 位等の よ う に優先き 識順位 'を決め る とがで.さ る  ) The priority of the signal is 1st, and the next signal is the 2nd, etc.
し たがつ て ン ピ ュ 夕 シス テム 2 は 優先順位の 高い も の を付帯素子 1 1 の発光 子か ら の発光信号画像 と 判定する と に よ り 優先順位 1 位の座標 を所望の ォ ブン ェ ク 0 に付帯さ れて い る 付 W素子 1 1 の発光 子 の発光 占位置 すなわ ち 付帯素子 1 1 の位置 引 いて は ォブンェ ク 0 の位置 と 判定する と がで き る (ス テ ッ プ S 2 0 2 )。  Therefore, the computer system 2 determines that the one with the highest priority is a light emission signal image from the light emitting element of the incidental element 11, and determines the coordinates of the first priority according to the desired coordinates. It can be determined that the occupied position of the luminous element of the attached W element 11 attached to Bunek 0, that is, the position of the attached element 11 is subtracted from the position of Obek 0 (S Step S202).
図 5 7 は 図 5 5 に示 し た実施形台目、 にお いて過去の付 帯素子の発光 占位置き に使 たテ ン プ レ 卜 を使用 し た処理 を示す図で る  Fig. 57 is a diagram showing the processing using the template used for the light emission occupation position of the incidental element in the past in the embodiment shown in Fig. 55.
本実施形態では き 識すベさ実ォブン ク 卜 の発光 を 確実に 心識する た め に ン ピ ュ 夕 シス テム 2 は 前 図 6 や 図 8 で §兌明 し た差分処理 を実行 して得 ら れた フ レ ム画像 n 2 2 7 に対 し て 過去の付帯素子の発光 占 位置き 識 に使 たテ ン プ レ 卜 2 3 1 c を用 いなが ら 差 分処理後の フ レ ム画像 n 2 2 7 の全領域 に対 し て矢印 In the present embodiment, the computer system 2 executes the difference processing described in FIG. 6 and FIG. For the obtained frame image n227, the frame after differential processing was used, using the template 2311c used for locating the light emission occupancy of the incidental element in the past. Arrow to the entire area of the image n 2 2 7
2 2 9 で示すよ にマ ッ チ ン グ処理 を行 う (ス テ V プ SPerform matching processing as indicated by 2 29 (Step S
2 1 0 )。 2 1 0).
次いで ン ピ ュ ―夕 シス テム 2 は マ ッ チ ン グ処理 で算出 し た座標毎のテ ン プ レ ― 卜 に対する き 識距離 (相 理度 ) を計算 してそのき、識距 の分布 2 2 8 b を取得す る (ス ッ プ S 2 1 1 ) o Next, the computer system calculates the perceived distance (the degree of perception) for the template for each coordinate calculated by the matching process, and then distributes the perceived distance. Get 2 8b (Step S211) o
の 'ta±果、 得 ら れた認卩 距離分布 2 2 8 にお け る 距離 差 (相埕度の差 ) に基づいて 取 も 心識距離の短い (相 理度の小 さ い ) 信号 を優先順位 1 位 次の信号を 2 位等 のよ Ό に優先き 識順位を決め る と ができ る  Based on the distance difference (difference in similarity) in the obtained kanji distance distribution 228, a signal with a short intellectual distance (smallness of reason) is obtained. Priority is 1st, next signal is 2nd, etc. Ό Priority can be determined
したがつ て Π ン ピ ュ 一タ シス テム 2 は 優先順位の 高 い も の を付帯素子 1 1 の発光素子か ら の発光信号画像 と判定す と に よ り 、 優先順位 1 位の座 を所 の ォ ブン X ク 卜 〇 に付帯 さ れて い る 付 素子 1 1 の発光 !々子 の発光 占 1^置 すなわち 付帯素子 1 1 の位置 引 いて は ォブジ ク 卜 0 の位置 と判定する と がで さ る (ス テ ッ プ S 2 1 2 ) 。  Accordingly, the computer system 2 determines the position with the highest priority by judging the one with the highest priority as the light emission signal image from the light emitting element of the incidental element 11. Light emission of the attached element 11 attached to the Oven X-Cut! If the position of the incidental element 11 is subtracted from the position of the incidental element 11, it is determined that the position of the object 0 is determined (step S 2 12).
図 5 8 は、 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 き 識シス テム 1 の別の実施形 の全体動作 を説明す る た め の 図であ 、 特 に付帯 子の発光を撮像する 撮像手 段の撮影条件の変更中処理 を示す図で め る  FIG. 58 is a diagram for explaining the overall operation of another embodiment of the real-world object X-recognition system 1 shown in FIG. 1 according to the present invention. In particular, FIG. FIG. 7 is a diagram showing a process during a change of a photographing condition of the photographing means.
本実施形態では、 動画力 メ ラ 1 0 3 の撮旦 条件変更 中 に いて 3 ン ピ ュ — 夕 シス テム 2 は そ の撮影条件変 更間に 出力 し た フ レーム画像信号は "、ヽ視 ま た は廃棄 し て 付帯 子 1 1 の発光位置の検出処理 を 中 断する (ス テ V プ S 2 2 0 ) 。  In the present embodiment, while the shooting conditions of the moving image camera 103 are being changed, the system 2 outputs the frame image signal output during the changing of the shooting conditions. Or, it is discarded and the process of detecting the light emitting position of the accessory 11 is interrupted (Step S220).
すなわ ち 、 図 5 8 に示すよ Ό に フ レ ム画像 ( n ― That is, as shown in FIG. 58, the frame image (n-
1 ) を 動画 力 メ ラ 1 0 3 で撮像 1 ^ た後 フ レ ―ム 画像1) with a moving image camera 103
( n ) の時刻 にお い て矢印 2 5 1 で示す動画力 メ ラ 1 0At time (n), the animation force shown by arrow 25 1
3 の撮影条件が変更 (変更 中) と な つ た ¾ 口 に は n ン ピ ュ 夕 シス 丁ム 2 は、 ハ占、ヽ線で囲 んで示すよ つ に 、 フ レ 一ム画像 ( n ) を fm The shooting condition of (3) is changed (being changed). As shown in box 2, the frame image (n) is displayed in fm.
ハ itn、、視ま た は破棄 し 、 位置検出処理 を 中 断する よ Ό に してい る  C Itn, it will be viewed or discarded, and the position detection process will be interrupted.
ま た 同様に 、 付 素子 1 1 の付帯さ れて い る実世界の ォブンェ ク 卜 0 の画像そ の も の を撮像す る ため の第 2 の 動画力 メ ラ 1 0 3 b の 1 影条件変更中 も 、 第 1 の動画力 メ ラ 1 0 3 a が出力 した フ レ ―ム画像信号 を廃棄 し て 、 付紫 子の発光位置の検出処理 を 中 断す る よ にする 図 5 9 は 、 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 き ¾J識シス テム 1 の別の実施形台 の全体動作を 明する た め の図であ Ό 、 特に衝突時の処理 を 明する た め の 図 であ る  Similarly, in order to capture the image of the object 0 of the real world attached to the attached element 11 1, the shadow condition of the second moving image camera 103 b for capturing the image itself Even during the change, the frame image signal output by the first moving image camera 103a is discarded, and the process of detecting the light emission position of the attached fluorescent lamp is interrupted. FIG. 1 according to the present invention is a diagram for illustrating the overall operation of another embodiment of the real world object X-Cut system shown in FIG. 1, particularly illustrating a process at the time of a collision. It is a diagram for
本実施形目、 で は 、 複数の発光き I 識があ た時は 、 その 時ハ占、、で抽出 した発光位置情報を廃棄する  In this embodiment, if a plurality of light sources are detected, the light emitting position information extracted in step (1) is discarded.
すなわ ち 、 5 9 に すよ う に 、 ン ピ ュ ―夕 シス テ ム 2 は 、 刖掲図 6 ま たは図 8 で説明 し た差分処理 に よ 得 ら れた差分処理後の フ レ ―ム画像信号 η 2 2 4 に対 し て 刖掲図 1 0 お よ び図 1 2 で説明 し た空 間 フ ィ ル夕 処理 後お よ びパ 夕 一 ンマ ッ チ ン グ処理 をそれぞれ施 し 、 その 結果得 ら れた空間 フ ィ ル夕処理後の フ レ ―ム画像 η 2 2 That is, as shown in 59, the amp-even system 2 uses the differential processing obtained by the differential processing described in FIG. 6 or FIG. -The image signal η2 2 4 is subjected to the space filter processing and the power matching processing described in Fig. 10 and Fig. 12 respectively. Then, the resulting frame image after the spatial file processing η 2 2
4 お よ び 一 夕 ンマ ッ チ ン グ処理後の フ レ一ム画像 η 24 and overnight Frame image after matching processing η 2
2 8 につ いて 、 前 図 1 3 に示 し た優先順位の比較処理Regarding 28, the priority comparison processing shown in the previous figure 13
(ス テ ッ プ S 2 3 0 よ びス テ ッ プ S 5 0 参照 ) を実行 し た結果にお い て も 、 展終的に 先順位 1 位の発光ハ占、ヽが(Refer to steps S230 and S50), even if the result of the execution of
2 3 2 で示すよ Ό に 存在 し た場合 (ス テ ッ プ S 2 3 1 ) 二 の フ レ - ム 画像時点で の抽 出位置座標は廃棄す る (ス テ ッ プ S 2 3 2 ) If it exists as shown by 2 32 (Step S 2 3 1) Discard the extraction position coordinates at the time of the second frame image (step S2 32)
図 6 0 は 、 本発明 に係 る 図 1 に示す実世界ォブン ェ ク き 識シス テム 1 の別の実施形能の全体動作 を説明する た め の 図であ り に付 素子の発光パ 夕 ―ンに 関する 処理を 説明する ため の 図であ る  FIG. 60 is a diagram for explaining the overall operation of another embodiment of the real-world object recognition system 1 shown in FIG. 1 according to the present invention. Fig. 3 is a diagram for explaining the process related to
本実施形台匕 は、 付帯素子 1 1 の複数回の発光 タ ン を照 □ 確き Iレ た上で、 付帯する 実世界の ォブン ク h の位置 と して き 識する も のであ る  In this embodiment, the pedestrian illuminates the light emitting tan of the incidental element 11 multiple times, and recognizes it as the position of the incidental real world object h.
図 6 0 では、 付帯素子 1 1 は 白 素子 1 1 によ り 自 発 的 あ る い は発光指 7JN命令 置 1 0 5 の命令に応 じ て 発光制御 段 1 5 d に よ り 動画力 メ ラ 1 0 3 の フ レ ム に 同期 さ せなが ら 5 フ レ ムで 1 つ の の発光パ タ ン P (発光 、 発光、 非発光 発光 非発光 ) のよ に 化 さ せなが ら 発光素子 1 5 C を発光 さ せる そ し て の 発光パ タ ノ ' P は 、 例 え ば付帯 素子 1 1 の識別 I D In FIG. 60, the auxiliary element 11 is spontaneously generated by the white element 11 or the moving image power is controlled by the light emission control stage 15d according to the command of the light emitting finger 7JN command block 105. Light-emitting element 1 while synchronizing with frame 103 of light-emitting element 1 while changing to one light-emitting pattern P (light-emitting, light-emitting, non-light-emitting, non-light-emitting) in 5 frames. The light emission pattern 'P that causes 5 C to emit light is, for example, the identification ID of the auxiliary element 11.
(付帯 し て い る実ォ ブジ X ク ト の識別 I D ) に対応 さ せ る と ができ る (Identification of attached real object X X ID)
M体的 に は、 認識 I D が例 え ば 5 ビ ッ 卜 ( 1 1 0 1 M physically, the recognition ID is, for example, 5 bits (111)
0 ) で表さ れて い る とすれば 付 素子 1 1 は 発光 夕 ―ン を 図 6 0 に示すよ う に対応 ビ ッ 卜 が 1 の時は発光 さ せ 対応 ビ ッ ト が 0 の 時は非発光 と して出力 し ン ピ ュ一タ システム 2 の映像力 メ ラ 1 0 3 が 対応す る 5 フ レ ム の間で こ の発光 タ ―ン を 識する も ので あ る の と さ 、 コ ン ピ ュ タ システム 2 は 心 果か ら 、 こ の発光が識別 I D = m ( 1 1 0 1 0 ) のオブジ ェ ク ト であ る こ と を確認でき た際 に、 各 フ レーム画像信号で抽 出 して いた発光位置座標を認識 I D = mのォブジ ェ ク ト の位置 と し て認識す る (ス テ ッ プ S 2 4 0 )。 こ こ で は、If the corresponding bit is 1, the attached element 11 emits light when the corresponding bit is 1, as shown in Figure 60. Is output as non-emission, and the visual power camera 103 of the computer system 2 recognizes this emission turn for the corresponding 5 frames. , Computer system 2 When it was confirmed that this light emission was an object with identification ID = m (111010), the light emission position coordinates extracted from each frame image signal were recognized. It is recognized as the position of the object m (step S240). here,
5 ビ ッ 卜 の例で し たが 必 で あれば 別 I D に対 応 し た任意の ビ ッ 数 と発光パ夕 ン の組み □ わせで も 良い 5 bit example, but if necessary, any combination of number of bits and light emitting panel corresponding to another ID may be used.
図 6 1 は テ ン プ レ と して付帯素子の 中央の光強 度 を最大露光値付近 と し その 中央か ら 円錐状に光強度 が下が る テ ン プ レ 卜 を使用する と を示す図で め る  Fig. 61 shows that a template whose central light intensity is near the maximum exposure value and whose light intensity decreases conically from the center is used as a template. Illustrated
本実施形會、 gでは 口心識すベき実ォブン X ク 卜 の発光を 確実に 識する た め に ン ピ ュ ―タ シス テム 2 は 刖 掲図 6 や 図 8 で 明 し た差分処理 を実行 し て得 ら れた差 分処 a後の フ レ ム画像 n 2 2 7 に対 し て付帯素子中央 の光強度を最大露光値付近 と し その 中央か ら 円錐状に 光強度が下がる テ ン プ レ 卜 2 3 1 X を用 い なが ら 差分 処理後 フ レ ム画像 n 2 2 7 の全領域に対 し て矢印 2 2 In the present embodiment, in g, the computer system 2 was used to perform the difference processing described in FIGS. The light intensity at the center of the incidental element is set near the maximum exposure value for the frame image n 2 27 after the differential processing a obtained by executing the above, and the light intensity decreases conically from the center. Using the template 2 3 1 X, the arrow 2 2 is applied to the entire area of the frame image n 2 27 after the difference processing.
9 で示すよ う にマ ッ チ ン グ処理 を行 Ό (ス テ ッ プ S 2 5 π 、 次い で ン ピ ュ 夕 シス テム 2 は マ ッ チ ン グ処理 で算出 し た座 毎のテ ン プ レ 卜 に対す る 口心識距離 (相 理度 ) を計算 してその 識距離の分布 2 2 8 X を取得す る (ス テ V プ S 2 5 1 )。 As shown in Fig. 9, the matching process is performed (step S25π), and then the computer system 2 performs the matching process for each locus calculated by the matching process. Calculate the distance between mind and mind (the degree of relevance) for the sample, and obtain the distribution of the sense distance 2 288 X (Step V S 2 51).
の 7PP果 ら れた 距 分布 2 2 8 X にお ける距 離差 (相違度 の 差) に 基づい て 、 最 も 認識距離 の 短 い (相理度の 小さ い ) 信号 を 先順位 1 位 次の信号を 2 位等の よ に優先き口心 順位を決め る とがでさ る Based on the distance distribution (difference in degree of difference) in the distance distribution 228 X obtained by the 7PP, the shortest recognition distance is obtained. (Small degree of reason) The signal is ranked first and the next signal is ranked second and so on.
し たがつ て ン ピ ュ ―夕 シス テム 2 は 優先順位の 高い も の を付帯素子 1 1 の発光 子か ら の発光信号画像 と判定す る と に よ り 優先順位 1 位の座 を所望のォ ブン ク 卜 0 に付帯さ れて い る 付 子 1 1 の発光素子 の発光 占位置 すなわち 付帯 子 1 1 の位置 引 いて は ォブジ ェ ク 卜 〇 の位置 と 判定する と がでさ る (ス テ ッ プ S 2 5 2  Therefore, if the high-priority system 2 determines that the high-priority object is a light-emitting signal image from the light-emitting element of the incidental element 11, it prefers the first-priority locus. If the position of the luminous occupancy of the light emitting element of the attachment 11 attached to the object 0, that is, the position of the attachment 11 is subtracted, it is determined that the position is the position of the object. Step S 2 5 2
m 6 2 は 本発明 に係 る 図 1 に示す実世界ォブジ X ク 卜 き口心識 シス テム 1 の別の実施形態の全体動作を 明する ため の 図で あ 特に発光する 光の波長が異な る 複数の 発光素子 をそれぞれ備え た複数の付帯 子をォブン X ク h に付帯さ せる 場 の処理 を示す図 め る  m62 is a diagram for explaining the overall operation of another embodiment of the real world object X-coordinate system 1 shown in Fig. 1 according to the present invention. In particular, the wavelengths of emitted light are different. FIG. 7 is a diagram showing a process in a case where a plurality of accessories each having a plurality of light emitting elements are attached to an object Xh.
本実施形 では 実世界の各ォブン X ク 卜 〇 a 〇 b In this embodiment, each X-cut of the real world 〇 a 〇 b
0 C の付帯する 付帯 ? 子 1 1 a 1 1 b 1 1 c にそれ ぞれ発光波長の異な る 複数 (本実施形態では 2 個 ) の発 光素子 1 1 1 a 1 1 1 b を設け 各波長 に対す る 減衰 里の異な る フ ィ ルタ を動画力 メ ラ 3 3 0 に備え る 実世 界の各ォブン X ク 卜 0 に発光波長が λ 1 と λ 2 の 2 個の 発光 子 1 1 1 a 1 1 1 b を有する 付帯 子 1 1 a0 C incidental incidental? A plurality of (two in this embodiment) light emitting elements 11 1 a 1 1 1 b having different emission wavelengths are provided for each of the elements 11 a 1 1 b 1 1 c. Two filters with emission wavelengths of λ1 and λ2 are assigned to each Xbox 0 in the real world, which is equipped with a different filter for the video power camera 330. Having accessory 1 1a
1 1 b を付 さ せて発光さ せ れに対 して動画力 メ ラ1 1 b is attached and the flash is fired.
3 3 0 の フ ィ ル夕 特性図 に示すよ う に減衰 が λ 2 の波 長よ り も λ 1 の波長 の方が大ぎ い フ ィ ル夕 を 画力 メ ラ 3 3 0 に備え付け る 。 の結果 動画力 メ ラ 3 3 0 が捉 た 出力 フ レ ム画 像は 図 に示すよ う に λ 2 の発光波長の発光素子 を有す る 付帯素子の発光強度が λ 1 の発光波長の発光 子 を有 する 付帯 子の発光強度 り 大さ < な て 識さ れる As shown in the filter characteristic diagram of 330, a filter whose attenuation is larger in the wavelength of λ1 than in the wavelength of λ2 is installed in the imager 33. . As a result, as shown in the figure, the output frame image captured by the moving power camera 330 emits light of the emission wavelength of the incident wavelength of the incidental element having the light emitting element of the wavelength of λ1 as shown in the figure. The luminous intensity of an accessory with a child
れに つ て 実世界ォブン ク 卜 が付 してい る 付帯 素子か ら の発光パ夕 ―ンは特徵的なパ 夕一ン と な る た め 、 他の ノ ィ ズ発光源 と の識別が容易 にな り 誤き 識の確率 を低減す る と がでさ る の例では 2 の発光波長 の例 を示 し たが れに限定 さ れる の でな < 3 つ以 上の波長の組み 1=1 わせや 任意の波長特性を もつ フ ィ ル 夕 ―と を組み Ώ わせる と が可能であ る  The light emission pattern from the auxiliary element attached to the real world object is a special light emission pattern, so it is easy to distinguish it from other noise light sources. In the example of reducing the probability of misunderstanding, the example of the emission wavelength of 2 is shown in the example, but it is not limited to this, but a set of three or more wavelengths 1 = It is possible to combine a filter and a filter with arbitrary wavelength characteristics.
図 6 3 は 本発明 に係 る 図 1 に示す実世界ォブジ ェ ク 識シス テム 1 の ヒ  FIG. 63 shows a view of the real-world object recognition system 1 shown in FIG. 1 according to the present invention.
別の実施形 mの全体動作 を 兌明する ため の 図であ Ό 特 に付 子の発光の光強度を可変 と し た処理 を 明する た め の 図であ る  FIG. 10 is a diagram for converting the overall operation of another embodiment m, particularly for illustrating a process in which the light intensity of the light emitted from the tag is variable.
本 台ヒ  Book stand
実施形 では ォプン X ク ト 〇 に付帯さ れる 付帯素 子 1 1 の発光強度を強 よび弱の組み □ わせで変調 し て 、 変 パ 夕 ン を 照八確き し た上で 付 する 実世界の ォ ブジェ ク 卜 〇 の位置 と し てき 識する のであ る  In the embodiment, the emission intensity of the incidental element 11 attached to the open X is modulated by a combination of strong and weak □, and the variable pattern is illuminated and attached. The position of the object
すなわ ち 図 6 3 にお いて 付帯素子 1 1 は 素子 That is, in FIG. 63, the auxiliary element 11 is an element.
1 1 に よ り 白 発的 あ る い は発光指示命令装置 1 0 5 の 命 に応 じて 動画力 メ ラ 1 0 3 の フ レ ム に同期 さ せ なが ら 例え ば 5 フ レ ム で 1 の ォブン X ク の発光 強 /ス変 Λ夕 ン P 1 で発光素子 1 5 c を発光さ せる そ して の発光強 変調 Λ0 タ ン P 1 は 例え ば付帯 *チ 1 1 の 別 I D (付帯 して い る実ォブン X ク 卜 の 別 I D ) に対応させる こ とがでさ る In accordance with the instruction of the instruction or instruction device 105, the synchronizing with the frame of the moving image camera 103 according to the command of the device 105, for example, at 5 frames. Light intensity / small intensity of the X-axis of 1 Λ Light-emitting element 15 c is illuminated at P 1, and intensity modulation at 0 P P 1 is an ancillary * It is possible to correspond to the other ID of H11 (the other ID of the attached real X-cut)
例えば 別 I D が 5 匕 ッ h ( 1 1 0 1 0 ) で表 さ れ て い る と すれば 付帯素子 1 1 は 発光変 夕 ―ン を 同 図 に示す Ό に対応 ビ ッ 卜 が 1 の時は発光強度 を強 < さ せ 対応 ビ ッ 卜 が 0 の時は発光強度を弱 < して 出力す れば良い  For example, if another ID is represented by 5 shad (h), the incidental element 11 indicates the light emission variation when the bit corresponding to Ό shown in the figure is 1. If the corresponding bit is 0, it is sufficient to output with the light emission intensity weakened.
の と き ン ピ ュ ー タ シス テム 2 の映像力 メ ラ 1 0 At the time, the visual power of the computer system 2
3 は 対応する 5 フ レーム の 間で の発光変 パ 夕 ―ン3 is the light emission change during the corresponding 5 frames.
P 1 をき 識す る o Recognize P1 o
そ し て ン ピ 夕 シス テム 2 は き刃識結果か ら こ の発光が識別 I D = m ί ( ( 1 1 0 1 0 ) (強 強 弱、 強 弱 ) ) の ォ ブジ ェ ク h で あ る と を確 心で さ た 際 に 各 フ レ ム画像信号で抽出 し てい た発光位置座 を 識別 I D m . < > ォ ブジ ェ ク 卜 の 位置 と し て き口 J 識す る In addition, the illumination system 2 has an emission ID of m = (ί (110), (strong strong weak, strong weak)) based on the cutting edge recognition result. The light emitting position extracted from each frame image signal when you are sure that the light emitting position is the identification ID m. <> The position of the object is recognized.
(ス テ ッ プ S 2 6 0 ) 。 :なお 本実施形 S±J で は 5 ビ V ト の例 に いて説明 したが、 れに限定い さ れる も ので な く 識別 I D に対応 し た任 の ビ V 数で発光強度を 変調 して 良い (Step S260). : In this embodiment, S ± J has been described with an example of 5 bits, but the present invention is not limited to this, and the light emission intensity is modulated by an arbitrary number of bits corresponding to the identification ID. Good
図 6 4 は 本発明 に係 る 図 1 に示す実世界ォブジ ェ ク ト 認識シス テム 1 の別の実施形台 P の全体動作 を説明す る た め の 図でめ Ό 特 にォブジ X ク に付帯する付帯素子 を複数設けた場 α の処理 を示す図で あ る  FIG. 64 is a diagram for explaining the overall operation of another embodiment table P of the real-world object recognition system 1 shown in FIG. 1 according to the present invention. In particular, FIG. FIG. 9 is a diagram showing processing of a field α in which a plurality of incidental elements are provided.
本実施形 ヒでは 、 実世界のォブジェ ク 卜 〇 に付帯 さ せ る 付帯 ^1 子 1 1 の発光素子を 数設け その 光素子数 で光強度を可変 とす る のでめ る 具体的 に は 1口」 に 示すよ う に 4 個の発光素子 1 1 2 a 1 1 2 b 1 1In this embodiment, the number of the light emitting elements of the auxiliary ^ 1 element 11 attached to the object 実 in the real world is provided. The light intensity can be varied by using the four light-emitting elements 1 1 2 a 1 1 2 b 1 1
2 c 1 1 2 d を有す る付帯素子 1 1 をォブン X ク 卜 〇 に付 さ せ の 4 個の発光素子 1 1 2 a 1 1 2 b4 light emitting elements 1 1 2 a 1 1 2 b with auxiliary element 1 1 having 2 c 1 1 2 d attached to Xbox X
1 1 2 c 1 1 2 d の発光数を 0 か ら 4 個の 間で可変 と す る と に よ Ό 実効的に動画力 メ ラ 1 0 3 で撮影 し た 時の発光強 を可変 と する も のであ る 1 1 2c 1 1 2 By changing the number of flashes from 0 to 4 Ό Effectively changing the flash intensity when shooting with the video camera 103 What is
なお 各発光素子 1 1 1 a 1 1 1 d は 十分 に近接 し て配置する と が好 ま し い  It is preferable that the light emitting elements 1 1 1 a 1 1 1 d are arranged sufficiently close to each other.
例え ば 発光素子 1 1 2 a 1 1 2 b 1 1 2 c 1 For example, light emitting element 1 1 2a 1 1 2b 1 1 2c 1
1 2 の発光強度を変 し て 変 e周パ夕 ― ン を照 □ 確 心 し た上で 付帯する 実世界のォブン X ク 卜 〇 の位置 と し て 識す る な ど の機能 を実現する と ができ る あ る い は 太 光や照明な ど の外乱の有 に よ り 発光強度を 可変 と し て ォブン X ク の誤 心識率 を低下さ せ る と も 可能であ る 12 Change the luminous intensity of 2 to illuminate the variable e-circle panel. □ Realize functions such as recognizing as the position of the real world's Xbox X, which will be attached with certainty. It is also possible to reduce the misperception rate of OB X by changing the luminous intensity depending on disturbance such as thick light and lighting.
図 6 5 は 本発明 の他の実施形台 t に係わ る 図 1 に示す 実世界才ブジェ ク 識シス テム 1 の別の実施形食 ¾の全 体動作 を 明する た め の 図で め り 特 に受光強度が所定 値以上の領域 を 内包する最小矩形の 中 の発光面積率が所 定値以上で め つ た領域 を発光 識対象 とする 処理 を説明 す る た め の図で あ る  FIG. 65 is a diagram for explaining the overall operation of another embodiment of the real world gift object recognition system 1 shown in FIG. 1 according to another embodiment table t of the present invention. FIG. 4 is a diagram for explaining a process of setting a region having a light emission area ratio of a predetermined value or more in a minimum rectangle including a region having a light reception intensity of a predetermined value or more as a light emission target.
本実施形台 では 識すベさ実世界ォブン X ク の発 光 を確実に 識 して 他の外乱光源の 115 =¾)識 を避 ける た め に ン ピ ュ 夕 シス テム 2 は 掲図 6 や図 8 で 明 し た差分処 ¾ 実行 して得 ら れた例え ば差分処理後の フ レ一ム画像 n の う ち 、 受光強度が所定値以上の領域を 内包す る最小矩形の 中 の発光面積率が所定値以上で あ た領域 を探 し ( ス テ ツ プ S 2 7 0 ) 、 そ の発光面積率が 所定値以上の領域を主た る 発 s^i In this embodiment, the computer system 2 is used to accurately recognize the emission of the real world object X, which is known, and to avoid the knowledge of other disturbance light sources. And in Figure 8 For example, in the frame image n after the difference processing, the light emission area ratio in the smallest rectangle that includes the area where the light receiving intensity is equal to or more than the predetermined value is obtained. A region where the light emission area ratio is equal to or more than the predetermined value is searched (step S270), and a region where the luminous area ratio is equal to or more than the predetermined value is mainly detected.
ノし 口'む m n 対象 とする (ス テ ッ プ S 2 7 1 ) 。  The target is m n (step S 271).
例え ば、 本実施形 では 世界オブジェ ク 卜 の付堂 素子の発光パ 夕 ン を 内包する 最小矩形の 中 の発光面禾貝 率が 7 0 % 以上で あ る Π を示 .してお り 。 例 え ば 7 0 % 以上の発光パ タ ― ン のき口心識優先順位 を上位 と し 、 7 0 % 以下の発光パ夕 ― ン は外乱光源 と し し 、 忍 p8¾優先順位付 けか ら 外すな ど して い る 0  For example, in the present embodiment, it is shown that the light-emitting surface mosquito rate in the smallest rectangle containing the light-emitting pattern of the attached object element of the world object is 70% or more. For example, the highest priority is given to the luminous patterns of 70% or more of the emission patterns, and the emission patterns of 70% or less are set to the disturbance light source, and the priority is given to Shinobu p8¾. Removed, etc. 0
し の結果、 外乱光源か ら の発光 占 を付帯素子の発光 占 と し て <—、、 ¾ nmする 可能性を大幅に低減する こ と がでさ る なあ 、 上述 し た各実施の形 では 、 付帯素子 1 1 の位 置情報 を発する機能 と し て 発光 子を用 い たが、 上記 発光 f、-子の代わ り あ る い は発光 子 と 併用 して G P S As a result, it is possible to significantly reduce the possibility that the luminous occupancy from the disturbance light source is set to <−, — nm as the luminous occupancy of the ancillary element.In each of the above-described embodiments, Although the light emitting element was used as a function to emit the position information of the auxiliary element 11, the light emitting element was used instead of the light emitting element f or-or the GPS combined with the light emitting element.
( G l o a l P o s i t i o n j L η ' S y s l 等 の よ Ό な 自 付 -¾ 、'子の位置情報を検出 して 自 発的 あ る い は ン ピ ュ 夕 シス テム 2 ら の位置 m報送信指令 に応 じ て送信す る 機能を有 して いて ち 良い o (Such as Global Positioning L η 'Sysl, etc.)-A command to send the position m report from the spontaneous or computer system 2 by detecting the position information of the child. O It is possible to have a function to transmit according to
ま た 、 性能の優劣 を 問わず機能 を実現する だけで あ れ ば 、 従来の技術に記载の位置検出方法の適用 も可能で あ る ο 例 え ば、 付帯 子の位置情報 を取得する ため に 、 超 曰 波を使つ た三角測里に基づ く 位 特定シス テム を用 い る と も 可能であ る In addition, if only the functions are realized regardless of the performance, the position detection method described in the prior art can be applied.o For example, to acquire the position information of the accessory In addition, a position identification system based on triangulation based on super waves is used. It is also possible
その 例 と して 1 0 0 0 平米の ビル内で 約 3 c m の位置相'度でォブン ェ ク 卜 の位置 を特定する ため 辺 As an example, in order to identify the location of an object at a location of about 3 cm in a 100 m2 building,
1 立 1 standing
• 2 m の グ ッ に 1 個の 曰 波セ ンサを 7 2 0 台天 井 に埋め込んでい る そ して ォブン X ク 卜 に付帯す る 長さ 8 c mの丁バィ ス は m波送受信機 と超立  • One sensor is embedded in a 720-meter ceiling for a 2 m-long good, and the 8 cm-long beam attached to the Oven X-Cut is an m-wave transceiver. And super standing
曰 波発信 を 内蔵 してお り 識別 I D が割 り 振 ら れてい る  It has a built-in wave transmission and an identification ID is allocated.
そ して 中央 ン 卜 口 ラ か ら 電波チ ャ ネルでそ の識 別 I D を送 Ό 同時 に天井の超立  Then, the identification ID is sent from the central entrance through the radio channel.
曰 波セ ンサネ V h ヮ ク の各力 ゥ ン 夕 を U セ ッ 卜 す る 一方 分の I D を 波 で受 け取 た丁バィ ス は 立  According to the wave sensane Vh ヮ h 各 力 力 U U 丁 U U る る る 一方 た た た
曰 波の パルス を発信 し 天 井のセ ンサの い < かがそれを受信 し て 伝播遅延時間 の差か ら二角法に よ Ό 位置を算出する  The pulse of the said wave is transmitted, and the sensor of the ceiling receives it and calculates the position by the diagonal method from the difference of the propagation delay time.
シス テム全体は中央 ン 卜 P ラ や /口 曰 波セ ンサネ ッ 卜 フ ク を制御する ン 卜 Π ラ を含め て夕 ィ ミ ン グク The whole system includes the central controller and the controller that controls the wave sensor network.
Π ッ ク に よ り |pj期 し て動作 し て い る れに よ り 電波 に よ る識別 I D 送信時 占か ら あ る超立 It operates at the time of pj, and is distinguished by radio wave.
曰 波セ ンサが 曰 波の パルス を検知 し た時 占 までの時間差 を算出す る根 拠を与え て い る の シス テム に よ り 毎秒 7 5 個のォ ブン X ク 卜 を 識 し て 位置 を特定でさ る と して い る のセ ンサ シス テム に分散ォブン X ク 卜 指向モ ルで ビル内の全ての Γ ヒ 卜 J を含むォブジェ ク の位置 と U ソ ス 丁 夕 をィ ンテ グ レ 卜 し ヒ 卜 に 商 然に感 じ ら れる ォブン X ク 間 の空間的相関関係 を ァ プ υ ケ シ 3 ン ソ フ ク Xァ に提示する と で 抽象化 1 成で さ る 空間モ一夕 U ン グシス テム と な てい る □ According to the system that provides the basis for calculating the time difference to the occupation when the wave sensor detects a pulse of the wave, the system recognizes and positions 75 X-boxes per second by the system. In the sensor system, the location of all objects in the building, including the object J, and the location of the U source are integrated in a distributed X-cut oriented model. Abstraction can be achieved by presenting the spatial correlation between the X-books that are commercially felt by the humans to the application to the application software Xa. The space system is a U-ring system □
各ォブジ X ク 卜 の位置 と状能 一夕 は C O R B A ( c The position and status of each object X cut is CORBA (c
0 m m o n o b j e a t e Q U e s t B r o k e r A Γ c i t e c t r e ) の ォブジ X ク h セ ッ0 m m o n o b j e a t e Q U e st B r o k e r A Γ c i t e c t r e)
、ヽ、 , ヽ,
卜 で表現さ れる C 0 R B A は分散ォ ブン X ク シス テ ム を実現す る ため 'に必要 とな る ォブン ェ ク 卜 指向ネ ッ 卜 ヮ 一 ク 基盤の 準であ る 例え ば 実世界の各ォブジ ェ The C0 RBA expressed in the form of a network is a standard of the object-oriented networking infrastructure required for realizing a distributed X-system, for example, in the real world. Each object
,
ク 卜 に対 し て C o R B A のォブン工 ク が対応す る 。For the cut, the co-work of CORBA corresponds.
4 0 余 り の ォブジ ェ ク b の種類がめ Ό 例 え ば ォ フ ィ ス の ヒ パ ソ ン マ ゥ ス 力 メ ラ プ U ン夕 話な どの実ォブジェ ク 卜 に対 して C O R B Aのォブジ ェ ク 卜 が対応 し 実世界のォブン X ク の現在の プ 口 パ40 There are more than 40 types of objects b. For example, the hyperbasic force of the office is the same as that of the CORBA object for real objects such as a map. The current blog of the real world Oven X
、 * , *
テ ィ を も ち 実世界のォブン X ク h の制御ィ ン夕 ―フ ェ ィ ス な る 例 え ば プ U ン 夕 ―は それに対応す る プ リ ン 夕 ォブジ ェ ク 卜 を経 由 し て ァ プ (J ケ ―シ 3 ン ·' ソ フ ゥ ェァ が実際の プ ンタ ―を作動 さ せ る う し たThe control interface of the real world X-h with a tie-a face-like example, a U-Pin-Yu-is passed through the corresponding Prin- ject object. The software (J Case 3) was activated by the software.
,
永 的な C 0 R Β A のォブン X ク の全セ ッ 卜 がァ プ リ ケ ン 3 ン • ソ フ 卜 ゥェァか ら見え る 世界モ了ル を形成Permanent C 0 R 全 All sets of A's X X form a world module that can be seen from the application 3 • software
,
する の 才 ブン ェ ク 自 体が 卜 ラ ンザク シ ン シス テム ダク ン時の代替処理 セ ッ シ 3 ン管理 ィ ベ ン ト 分 散 あ る い は大規模な分散シス テム の陰に あ る多 < の項 目 の面倒 を見て ァ プ U に単 の プ D グ ラ ン グィ ン夕 フ X ィ ス を 供 して い る Alternative processing when transacting in a transaction system Session 3 Management events Dispersion or the shadow of large-scale distributed systems Taking care of the items in <, we provide a single program to the U U
以上 .体的 に述ベた超 曰 波を使 つ た位置特定シス テム を用 いた に は ^口立  Above: To use a wave-based position locating system that was described physically, ^^
曰 波セ ンサ群やセ ンサ制御 3 ン 卜 D ラ な ど を天井や床な ど に埋め込み と よ びシス テム sru Said wave sensor group and sensor control 3 Embedding the D-la in the ceiling or floor, etc. and the system sru
B 計 をする こ と が要求さ れる た め 大さなォ フ ィ ス ビルや病院な ど、 移動性の高 い人 が情報の生成 情報 への ァ ク セ ス 、 異種の機 asや相互の ュ ケ ―シ a ン を交わす必要の あ る状況への 用 で効果を発揮する  Since it is necessary to perform B-measurement, highly mobile people, such as large office buildings and hospitals, can generate information, access information, access different types of machines, and interact with each other. Works best in situations where you need to interact
さ ら に 付帯素子の位置情報を取得する ため に 赤外 発光する 実世界の才ブジ X ク 卜 を赤外セ ンサや赤外力 メ ラ で口心識す る技俯 と して シ一ン と I D を 同時に取得可 台 なィ メ ジセ ンサカゝ ら な る I D 力 メ ラ を使用す る と 可能で あ る  In addition, the real world smart X-ray X-ray, which emits infrared light to acquire the positional information of the incidental element, is used as a technique to recognize the sense of mind using an infrared sensor or infrared force camera. ID can be obtained at the same time It is possible to use an ID camera that can be used as a large image sensor.
例え ば 実世界のォプジ X ク h (被写体 ) に付帯 子 と して ビ ン と 呼ばれる マィ ンで点滅が制御 さ れる 発光ダィ ォ ― ド ( L E D ) を搭載 I D を割 り 当 ててお For example, a light-emitting diode (LED) that controls blinking by a so-called bin as an accessory is attached to the real world opzik h (subject), and the ID is assigned to it.
< ビ ンはそ の I D に基づいて 占滅を繰 り 返す の と さ 丁 ン夕 ル ビデォ力 メ ラ ( I D 力 メ ラ ) でそ の 占 滅パ 夕 ン を検知 解析 し て I D を 口心識す る o き 識 し た I D は被写体の画像に重ねて表示する 赤外線 U モ ン に例えてみれば ビ ン は赤外線 U モ ンの送信機 で あ り I D 力 メ ラ は リ モ Π ン受信機 を ァ レィ 状 に配 m し た ァ レィ セ ンサ ( C M 〇 S ィ メ ンセ ンサ ) で あ る 0<The bin repeats occupation based on its ID, and it detects and analyzes the occupation pattern using a video camera (ID camera). O Recognizing the ID The ID is compared to the infrared U-mon, which is displayed over the subject image. Bins are infrared U-monitors, and the ID input camera is a remote receiver. This is an array sensor (CM 〇 S dim sensor) with the machines arranged in an array 0
I D 力 メ ラ は普通 の カ メ ラ と 1 て ■シ ' ン を 撮像す るThe ID camera is an ordinary camera.
( シ ンモ H ) だけでな < ビ ン を撮像 し た画像 上の座標 と ビ コ ンが送信す る I D デ 夕 を組に し て出 力 す る ( I D モ ド )。 I D モ ド で は I D 力 メ ラ は(Singa mode) Outputs a set of coordinates on the image of the <bin> and the ID data transmitted by the icon (ID mode). In the ID mode, the ID force camera is
1 2 k H z のサ ン プ リ ン グ を 2 0 0 回繰 Ό 返 し ビ 3 ンが送信する キ ャ V ァ 周波 4 k H z の 8 ビ ッ の I D を 1 9 2 X 1 2 4 画素全て にお い てデ し 1 5 f1 2 kHz sampling is repeated 200 times. Decode the 8-bit ID of the carrier frequency 4 kHz transmitted by the pixel for all 19 2 X 12 4 pixels 15 f
P s で I D 画像を作成する □ の I D を介 してサィ バ 世界の (ィ ン夕 ネ V 卜 上の ) 情報 と ン ク さ せる こ と が可能な ので 、 ザはその I D を手がか り にォブジ ェ ク に 関する情報 を入手する と がでさ る I D の ビ ッ 数は 8 ビ ッ 卜 で あ り 、 れ を 4 k H z の キ ャ リ ァで マ ンチ X ス 夕 符号化 し 、 2 2 ビ V 卜 のパケ ッ 卜 単位で ICreate an ID image with P s □ It is possible to link to the information of the world of the world (on the inbox) via the ID of □. The number of bits of an ID that can be obtained when obtaining information about an object is 8 bits, and this is subjected to multi-X encoding using a 4 kHz carrier. , 22-bit packet I
D T 夕 を送受信する と がでさ る Sending and receiving D T evening
そ して 、 付帯 子 と して 実世界のォブン X ク 卜 の表 面に 2 次元マ 卜 V ク ス を貼 り 付け れ を ビデ ォ力 メ ラ で撮影す る 士 Si画像の処理 に よ て マ 卜 U Then, as an accessory, a two-dimensional matrix V is pasted on the surface of the real world Xbox X-ray, and the image is photographed with a video force camera. M U
V ク ス ド、 を口心識す る れに よ ビ丁ォ力 メ ラ 映 像で見て い る対象か ら 、 き口心識 したマ h ッ ク ス ド を 介 し て 、 ネ ヅ 卜 フ ク 上の 関連情報 に ァ ク セス し た り 、 仮想世界のォブジ ェ ク 卜 を展開する と がで さ る From the subject that you are watching in the video, you can learn from the subject that you are watching in the video. You can access related information on hooks and develop virtual world objects.
さ ら に 、 実ォブジ X ク に付帯さ れた付 素子 を識別 す る 手段 と して 、 実ォ ブン X ク 卜 に赤外付 W素子を埋め 込み 、 の赤外付帯 子を赤外領域に咸 の あ る 複数台 の C C D 力 メ ラ で撮影する と に よ り 埋め込んだ赤外 付帯 子の波長差 を利用 し て の付 子 を B8¾別する と も可能で あ る  In addition, as a means for identifying the attached element attached to the real object X, a W element with an infrared ray is embedded in the actual object X, and the infrared accessory is put in the infrared region. By photographing with multiple CCD power cameras with a hammer, it is also possible to use the wavelength difference of the embedded infrared accessory to distinguish the accessory from the B8 class.
例 え ば 、 発光中心波長が 8 0 0 n m 、 8 2 5 n m 、 8 For example, if the emission center wavelength is 800 nm, 825 nm, 8
5 0 n m 、 8 7 5 η m 、 9 0 0 n m の赤外付 素子 と感 知可 匕 50 nm, 875 ηm, 900 nm infrared-equipped element
13匕波 域 の な る ( 中心波長が 8 0 0 n m 、 8 5 0 n m 9 0 0 n mの赤外パス フ ィ ル夕 を C C D 力 メ フ に 着 して い る ) C C D 力 メ ラ複数台 と を用 い て赤外付 帯素子を識別する と がでさ る 。 13 The dangling wave region (the center wavelength is 800 nm, 85 (The infrared pass filter of 0 nm 900 nm is attached to the CCD force filter.) .
さ ら に 付帯 子 (ォブジェ ク ) 識別技術 と し て 例 え ば 5 個の L E D で構成さ れる 夕 グを実ォブジ X ク に取 り 付け ビ了ォ力 メ ラ で撮影する方法 も め る  Furthermore, as an accessory identification technology, for example, a method of mounting an evening consisting of five LEDs on an actual object X and shooting with a camera can be used.
こ の方法では、 得 ら れた ヒ デォカ メ ラ の映像 を解析 し て、 タ グ情報の読み取 り と 映像中 の位置計算を行 う 。 夕 グの 5 個の L E D の 内、 周辺部の 4 個は同 じ タ イ ミ ン グ で点灯 と消灯 を繰 り 返 し 、 ク ロ ッ ク 信号の役割 を果た し 、 中央の L E D はク ロ ッ ク 信号の点滅カゝ ら 1 Z 4 位相遅れ て 占滅 し 了 夕 信号 を送る  In this method, the obtained video of the hidden camera is analyzed, tag information is read, and the position in the video is calculated. Of the five LEDs in the evening, the four at the periphery repeatedly turn on and off at the same timing, play the role of a clock signal, and the center LED Lock signal flashes 1 Z 4 Phase delayed and occupied. Send evening signal
の と さ 映像力 メ ラ が と ら えた画像は 先ず明 る い 画素だけ抜き 出 さ れる 次 に 上記過 ΐ呈で抽出 さ れた画 素 を領域 口 し て 領域の面積を 計算する 面禾貝が 定 値以上の領域は夕 グ光源で はない と判定 し て除去す る  First, only the bright pixels are extracted from the image captured by the visual power camera. Next, the area extracted from the above-explained pixel is calculated to calculate the area of the area. Is judged to be not a sunset light source and is removed
の除去は 白 い壁の 明 る い部分や蛍光灯光源その も のな ど を判定対象か ら 取 り 除 < ため に行 う  Removal of bright parts of white walls, fluorescent light sources, etc. from the judgment target
次 に の様に し て選択さ れた複数の領域の 中で ク Π V ク 信号 と 推定でぎ る組み α わせを探索する 夕 グの ク D ッ ク 信号は画像中で略ひ し形の 域 と して写 る ので 4 領 域の全て の組み わせの 中で 4 頂 占 のなす角度に制限 を 加え る と でク Π ッ ク 信号源を選び出す と がで さ る ク D ッ ク 信号源の ひ し 形が ばれる と 直近の映像 フ レ ム でひ し形があ た 域 を対応付け 夕 グが ど の よ に移 し て い る のか を解析する 次に ク ッ ク 信号が点 灯 し た あ る い は消灯 し た際に は そ の ひ し形の 中央 付近 に L E D が発見でさ る か否か を調査 し ァ ― タ ビ ッ と して Γ 1 J 又は Γ 0 J を み取る Π ン ピ ュ 夕 の フ レ ム処理速度が 1 0 H z でめ Ό ク Π ッ ク と デ 夕 の位相差 を考慮する と送信速度は 5 H Z 以下の任意速度 を と り 得 る そ で タ グの送信速 を 4 H z と し て い る 。 Next, a search is made for a combination of the ク V signal and the estimated ク V signal in a plurality of regions selected in the following manner. The ク D signal in the evening is a roughly diamond-shaped signal in the image. Since it is captured as a region, it is possible to select a quick signal source by limiting the angle formed by the four peaks in all combinations of the four regions. When the rhombus is disjointed, the area where the rhombus is located in the most recent video frame is matched. Next, when the clock signal is turned on or off, it is determined whether or not an LED is found near the center of the diamond. Investigate-Obtain Γ1 J or Γ0 J as a tab Π When the frame processing speed is 10 Hz, the phase difference between the media and the data is determined. Considering this, the transmission speed can be any speed less than 5 Hz, so the tag transmission speed is 4 Hz.
ま た 付帯 子 と して 光通信技 を用 い た 小型の 線セ ンサ ノ を用 い る と も でさ る  In addition, a small wire sensor using optical communication technology can be used as an accessory.
の tw線セ ンサ ノ ド、 を用 いた シス テム にお い て検討 さ れてい る 線通信技術は光通信技術で め り 例 え ば 基地局の レ ザ ―光源か ら 届 いた光を 線セ ンサ ノ 上 に形成 し た 小型反射 ラ .で入射 し た光軸 と 平行な 方向 に戻すか 外すか に よ つ て 光信号 と し て返す方式 を採用 して い る ο  The line communication technology being studied in systems using tw-wire sensor nodes is optical communication technology.For example, the light transmitted from the base station laser-light source can be used. A small reflective laser formed on the sensor is used to return the optical signal as an optical signal by returning or removing it in a direction parallel to the optical axis incident on it ο
すなわち 基地局 にき rti Ann  That is, base station
ax置 し た レ ザ か ら 線セ ン サ ノ ドヽ 群が散在 して い る 領域に レ ザ • ビ ム を照 射す る の 際 上記の照射光は rntt:線セ ンサ ノ を ス 'J プモ か ら起動する マ ン ド、 やセ ン シ ン グ情報 を要求する マ ン ド な ど を含み 了 タ を送る た め に変 When irradiating the laser beam to the area where the line sensor nodes are scattered from the laser where the ax is placed, the above-mentioned irradiation light is applied to the rntt: line sensor node. Change to send a command that includes the command to be started from the remote controller, the command to request sensing information, and so on.
B周す る と ができ る 方 線セ ンサ ノ ドヽ は変調 さ れて いな い ビ ム を受けた時は 超小型反射 ラ を動 か し て 反射光を基地局 に 向 けて平行 に返すか 外すか に て 反射 ビ ム を変 する と に よ Ό 基地局 に デ 夕 を返す と がでさ る 。 A normal sensor node that can be made around B will return the reflected light in parallel to the base station by moving an ultra-small reflector when receiving an unmodulated beam. Change the reflected beam by removing or removing it. When he returns, he gets out.
の と さ 超小型反射 フ を 方体の 3 ナ 部 の内側に形成さ れる 互い に な 3 面を反射 と して  The miniature reflectors are used to reflect each other's three surfaces formed inside the three corners of the body.
m 成 してい る  m
すなわ ち 3 面反射鏡に入射 し た光 ビ ム は入射 し た 光軸 と平行 に反射さ る た め 本的 に特別なァ ラ ィ メ ン 卜 が < て 各 線セ ンサ ノ ド、 か ら 反射さ れて さた 反射 ビ ム は 基地局 に戻 つ て < る 予め セ ンサ ノ ― ド、 群が分布 して い る 全領域か ら の反射 ビ ムが C C D ィ メ ンセ ンサァ レィ 上に結像する よ に レ ンズ系 を x計 し てお けば 各 ノ か ら の変調 ビ ム はその空間位置 に対応 し て 上記セ ンサァ レィ の上の特定位置の ピ ク セ ルで受信する と ができ る  In other words, since the light beam incident on the three-sided reflecting mirror is reflected in parallel with the incident optical axis, a special element is essentially created for each beam sensor node. The reflected beam returned to the base station is returned to the base station, and the reflected beams from the entire area where the sensor nodes and groups are distributed are formed on the CCD sensor array. If the lens system is x-measured so that it can be imaged, it is possible that the modulated beam from each node will be received at a pixel at a specific position on the sensor array corresponding to its spatial position. it can
い換え る と 空間分割多重の光通信 を実現する と がでさ る 空間分解能は C M O s ィ メ ―ンセ ンサの ピ ク セル Ύ レィ の数 に よ る が 1 7 m角 のェ U ァ に ノ ド、 が 分布 し て い る と さ に 2 5 6 X 2 5 6 の ピ ク セルァ レィ で受光 し た 八□ 各 ピ ク セルは 6 • 6 C m 2 の 間領域 に対応する 夕 バ の箱位の距離だけ離れて いれば 別 のセ ンサ ノ ド、 か ら の信号 と して (3心識でさ る なお 転- en  In other words, the spatial resolution that can be achieved by realizing space division multiplexing optical communication depends on the number of pixel arrays in the CMOs sensor. The pixels received at the 25 6 x 25 6 pixel array each have a pixel box corresponding to the area between 6 • 6 Cm 2. If it is separated by the distance of another place, it will be a signal from another sensor node (from three senses
送信 速度は C C D セ ンサの フ レ ム周期 に依存す る と にな る The transmission speed depends on the frame period of the CCD sensor.
本発明は 上述 し た実施の形態 実施例お び 形例 に限定さ れる も のではな < 本発明 に属する範囲内 にお いて 上記実施の形台 争施例お よ び 形例 を様々 に変 形 して実施する こ と が可能で あ る 。 The present invention is not limited to the above-described embodiments and examples. <The present invention is not limited to the above-described embodiments and examples. It can be implemented in the form.
業上の利用可能性 Commercial availability
本発明 は 実世界のォブン ク 卜 に関する 情報で あ る 実世界ォブンェ ク 卜 情報 をサィ バ 世界を構成す る コ ン ピ ―夕 シス テム に よ り 識する ため の実世界ォブン ェ ク 卜 き  The present invention relates to a real world object for identifying real world object information, which is information about real world objects, by means of a compilation system constituting a server world.
口心識方法お よ び装置 な ら びに付帯素子 に 関 し 、 実 世界のォブン ク 卜 に対 してサィ バ ―世界を構成す る コ ン ピ ュ 夕 シス テム で実世界ォブン X ク に対応 し て定 義 さ れる サィ パ 世界の ォブジ X ク h を適確 に 合する 。  Regarding methods of oral tactile perception, devices and incidental devices, a server for real-world objects and a computer-system that composes the world supports real-world objects X , Which is defined as follows.

Claims

1 - 実世界のォプジ ク ( O a 〇 b o c ) に 関 連する実世界ォブンェ ク 卜 情報をサィ バ 世界を構成す る コ ン ビ ュ ―夕 シス テム ( 2 ) に よ り 口心識する た め の実 世界ォブン ク § 1-Real-world object information related to real-world opics (Oa 〇 boc) is perceived by the combo-evening system (2) that constitutes the server world. Real World Obuk §
口心識方法で め て  In the manner of oral
刖 §d実世界ォブジ X ク ( 〇 a 0 b 0 c ) に付帯 さ れ 意の識別 ,1 m報が割 り 当 て ら れた付帯素子 ( 1 1 a , 1 1 b 1 1 c ) か ら 発せ ら れた 刖記識別情報 び該付帯 子 ( 1 1 a 1 1 b 1 1 c ) の位置 を表す 位置情報 を前記 3 ン ピ ュ 夕 シス テム ( 2 ) に よ り 受信 する ス テ V プと  刖 §d Ancillary elements (11a, 11b1c) assigned to the real world object X ((a0b0c) and assigned a significant 1m report The three-computer system (2) receives the identification information issued by the third computer and the position information indicating the position of the accessory (11a11b11c) from the step-by-step system (2). And
受信 し た前記付帯 子 ( 1 1 a 1 1 b 1 1 c ) の 識別情報お よび位置情報 に基づいて該付 素子 ( 1 1 a Based on the identification information and the positional information of the attached element (11a1 1b11c) received, the attached element (1 1a
1 1 b , 1 1 c ) に対応する 実世界ォブン X ク h ( 〇 a1 1 b, 1 1 c) corresponding to the real world X h (〇 a
〇 b O c ) の位置を ン ピ タ シス テム ( 2 ) に よ 特定 してき口心 する ス テ ッ プ と 〇 b O c) The position of (b)
を備え た と を特徴 と する 実世界ォブジ X ク 卜 き口心 B哉 法  Real world obuji X X
2 - 刖記付帯 子 ( 1 1 a 1 1 b 1 1 c ) は 、 発 光指示命八に応答 して発光 し そ の発光点 に関する 情報 を前記 1 置情報 と して出力する発光素子を備 えてお Ό 刖記 コ ン ピュ タ シス テム ( 2 ) に よ Ό 、 刖記付帯素 子 ( 1 1 a 1 1 b 1 1 c ) を特定する識別情報 を含 む 光指 命令を送信する ス 丁 ッ プを さ ら に備え、 記 ン ピ ュ一 夕 シス テム ( 2 ) の送信ス テ ッ プに基 づ < 発光指示命令が前記付 素子 ( 1 1 a , l i b , 1The 2-刖 attachment (1 1 a 1 1 b 1 1 c) includes a light emitting element that emits light in response to the light emission instruction command 8 and outputs information on the light emitting point as the above-mentioned positional information. The computer system (2) includes identification information for identifying the attached element (1 1 a 1 1 b 1 1 c). In addition, a step for transmitting a light finger command is further provided, and based on the transmission step of the recording system (2), the light emission command is issued by the light emitting instruction (11a, lib, 1
1 C ) に よ り 受信さ れ 、 該発光指示命令に含ま れる 識別 情報が 付 子に割 Ό 当 て ら れた識別情報に一致す る 場 α に該付 W 糸子か ら 刖記発光素子 を介 して発光が発せ ら れた場八に、 1C), and when the identification information included in the light emission instruction command matches the identification information assigned to the tag, the light emitting element from the wire W is assigned to α. In the spot where light was emitted via
前 記 受 信 ス テ 、 プ は 、 前 記 3 ン ' ピ ュ - 夕 シ ス テ ム The receiving stage and the receiving system are the same as those described in the above three-pin system.
( 2 ) に よ り 前記付帯 子の発光 を撮像手段 ( 1 0 3 ) を用 い て フ レ一ム単位の画像 と し て撮像する こ と に よ り 刖 光ハ占、ヽ の位 を す位 情報 を取得する ス テ ッ プを み According to (2), the light emission of the accessory is captured as a frame unit image using the image capturing means (103), and the light is occupied by the light. Look at the steps to obtain position information.
記き口心 ス テ ッ プは 、 取得さ れた 刖記 光ハ占、ヽ の位置情  The writing step is based on the obtained information
、、、  ,,,
報 を 記実世界ォブンェ ク 卜 ( o a 0 b o c ) の位 置 と し てき口' 識する ス テ ッ プを含む 、 The step of identifying the report as the position of the real world object (oa0boc).
と を特徵 とす る 求項 1 記載の実世界ォブジ X ク 卜 m識方法  The real world object X claim m method described in claim 1
3 • 刖記口心 ス 丁 V プは 、 3 • 口
刖記撮像手段 ( 1 0 3 ) に よ り 撮像さ れた 刖記付 W 糸 子の発光時ハ占、ヽ の注 百 フ レ ム画像信号か ら 時間軸上の近 傍の フ レ ム画像信号 を所定の強度比率で減算す る ス テ ッ プと 、  占 Image taken by the image pickup means (103) 占 When the W thread with the mark is illuminated, the frame image in the vicinity on the time axis from the 100 frame image signal of 注A step of subtracting the signal by a predetermined intensity ratio
の減算処理の施 さ れた注 フ レ一ム 画像信号 に対 し て空間 フ ィ ル夕処 お よ び η タ ―ン 7 ッ チ ン グ処理の 内 の少な < と 一方を含む ノ ィ ズ低減処理 を施すス テ ッ プ と 、 The spatial frame and the η-turn 7 processing are applied to the note frame image signal that has been subjected to the subtraction processing. A step of performing a noise reduction process including one of <and
の ノ ィ ズ低減処理 を施さ れた フ レ一ム画像信号 にお いて画 1、'濃度の最 も 高 い画像を 刖 付 St素子 ( 1 1 a In the frame image signal that has been subjected to the noise reduction processing, the image 1, the image with the highest density is attached to the St element (11a
1 1 b 1 1 c ) の発光像 と 口心識する ス テ ッ プ と 1 1 b 1 1 c)
のき 識 し た発光像の フ レ ―ム画像内位置 を付 子 Attach the position in the frame image of the recognized luminescent image
( 1 1 a 1 1 b 1 1 c ) の位置 と し て特定かつ β心 する ス テ V プ と 、 A step V that is specified and β-centered as the position of (11 a 1 1 b 1 1 c)
を さ ら に備えた と を特徴 とす る 5冃求項 2 記載の 世 実 界ォブジェ ク 卜 認 方法 o  The method for recognizing a world-class object according to claim 2, wherein the method further comprises: o
4 前記減 ス 丁 ッ プは 刖記注 @ フ レ ―ム画像信号 か ら 隣接フ レ一ム画像信号お よ び刖記付帯素子の 非発光 時の フ レ ム画像信号の 内 の少な < と も 一方 を減算す る 処理お よ び刖記注 巨 フ レ一ム画像信号か ら の フ レ ― ム画像信 を所定の強度比率で減算する 処理の 内 の何れ か一方 を行 Ό ス テ ッ プ と (4) The above-mentioned reduction in the number of the frames included in the note @ frame image signal, the adjacent frame image signal and the frame image signal when the attached element is not emitting light Note that either one of the processing of subtracting one of the two and the processing of subtracting the frame image signal from the large frame image signal at a predetermined intensity ratio is performed. And
の減算処理結果 と し て負数 と な る 前記注 目 フ レ ―ム 圍ヽ 画像信号内 の画素信号お よび所定の閾値以下 と な る 刖記 注 巨 フ レ ム画像信号内 の画素信号の 内 の少な < と も 一 方を除去する ス テ ッ プ と  Note that the result of the subtraction processing becomes a negative number The above-mentioned note frame range The pixel signal in the image signal and the pixel signal below the predetermined threshold value Note The pixel signal in the huge frame image signal Steps to remove one of the <
、、 を含む と を特徵 とす る m求項 3 記 の実世界ォブン ,,, And.
X ク 卜 方
Figure imgf000121_0001
b 前記 ノ イ ズ低減処理ス テ ッ プの空間 フ ィ ルタ 処理 は、 刖 注 目 フ レ ム画 象信号にお け る所定の フ ィ ル夕 サィ ズの被 フ ィ ル夕 リ ン グ範囲内 の各画 の画 信号の 強度値 を平均化す る処理 を 刖記注 フ レ ム画像信号の 全領域に いて実施 し 、 の平均化 さ れた信号強度に応 じて優先順位を付与する ステ ッ プを含み 、 刖記 ノ ィ ズ低減処理ス テ 、リ プのパ 夕 ンマ ッ チ ン グ処 理 は 、 所定サィ ズの被 タ ―ンマ ッ チ ン グ領域に い て の 記付帯 子の発光 /\°夕 ン に類似 し た定義パ タ ン と の相 関処理を 記注 巨 フ レ ―ム画像信号の全領域 につ いて 口
X
Figure imgf000121_0001
b Spatial filter processing of the noise reduction processing step 、 Is a process for averaging the intensity values of the image signals of the respective images within the field range of the predetermined file size in the frame image signal of interest. Note: Includes a step that is performed for the entire area of the frame image signal and that gives a priority order according to the averaged signal strength of the frame image signal. The pattern matching process is performed in a manner similar to the definition pattern similar to the light emission / \ ° set of the attached element in the target matching area of the predetermined size. Note the processing for the entire frame of the image signal.
施 し 、 その 果の信 強度 に応 じて 先順位 を付 優  And prioritize according to the strength of the result.
与する ス テ ッ プを含み 、 刖記 ノ ィ ズ低減処理ス テ ッ プは 、 前記空間 フ ィ ルタ 処 理お よ び刖記パ夕 ンマ ッ チ ン グ処理 の 内 の少な < と も 方の処理 に よ り 付与さ れた優先順位 に づいて 記発 光ハ占、、の位置を m択 し 、 選択 し た発光ハ占、、 の位置を 刖記付帯 素子 ( 1 1 a 1 1 b , 1 1 c ) の位置情報 とき口 ' 識す る ス テ V プを含む し と を特徴 とする B冃 求項 3 記載の実世界 ォブジ ク 卜 き 方法 And the noise reduction processing step includes at least one of the spatial filtering processing and a small number of the pattern matching processing. Select the position of the light-emitting element, based on the priority given by the processing of, and select the position of the selected light-emitting element. , 11c) The method of claim 3 characterized in that the location information and the step containing the speech are included.
6 • 刖記付帯 子 ( 1 1 a . 1 1 b 1 1 C ) か ら 前記発光指示命 "Π に応答 し 撮像手段 ( 1 0 3 ) の フ レ ム周期 に 期 して 発光が行われて い る に 刖記き口心識ス テ ッ プは 刖 id付 子 ( 1 1 a 1 1 b 6 • In response to the light emission instruction command “Π” from the tag (11a.11b11C), light emission is performed in anticipation of the frame period of the imaging means (103). The steps to write the word of mouth are 刖 id tag (1 1 a 1 1 b
1 1 C ) の発光持 時間 を m P3 31像手段 ( 1 0 3 ) の 1 フ レ ム 内お よび該撮 ί象手段 ( 1 0 3 ) の 1 フ レ ム 内 で あ り かつ 己 3取像手段 ( 1 0 3 ) の シ ャ ヅ 夕 が開 放さ れて い る 時間内 の 内 の何れか 方 と し て設定 し 刖 記撮像手段 ( 1 0 3 ) の各フ レ ム単位の フ レ ム画像 信号に り 刖記付帯素子 ( 1 1 a 1 1 b 1 1 c ) の 発光位置 を連 的 に特定する ス テ ッ プを含む と を特徴 とす る P冃求項 2 乃至 5 の Ό ち の いずれか 1 項に記 の実 世界ォブジェ ク Γ 。心識方
Figure imgf000123_0001
The emission duration of 11 C) is set within one frame of the mP3 31 image means (103) and within one frame of the imaging means (103). Each of the image pickup means (103) is set as one of the time periods during which the shutter of the self image pickup means (103) is open. A frame image signal in frame units including a step for successively specifying a light emitting position of the ancillary element (11a1 1b1 1c); The real world object according to any one of claims 2 to 5. Way of thinking
Figure imgf000123_0001
7 刖記付帯素子 ( 1 1 a 1 1 b 1 1 c ) の 光 素子は 所定の周期で繰 Ό し発光する 機能ね よ びラ ン ダム な長 さ のガ ― ド 時間の後繰 り 返 し発光する機能の内 の何れか 方の機能 を備え 刖記何れか 方の機能 に7 帯 The optical element of the ancillary element (1 1 a 1 1 b 1 1 c) has a function to emit light repeatedly at a predetermined cycle and a repeated time after a guard time of random length. Equipped with one of the functions to emit light.
Ό 発光 し た発光点 に 関する情報を 刖記位置情報 と し て 出 力 し てお り 刖記付 來子 ( 1 1 a 1 1 b 1 1 c ) は m記予め割 り 当 て ら れた識別情報 を 刖記発光 に 同期 し て 記 ン ピ ュ 夕 シス テム ( 2 ) に 向 けて送信 し て お り 情報 Information about the light emitting point where the light was emitted is output as the position information. M The mark (11a 1 1b 1 1c) is assigned m in advance. The identification information is transmitted to the recording system (2) in synchronization with the recording light emission.
刖 記 受 信 ス テ ツ プ は 刖 己 コ ン ヒ ュ ^" - 夕 シ ス τ ム 刖 The receiving step is 己 コ コ---
( 2 ) に よ り 刖記付帯素子 ( 1 1 a , 1 1 b 1 1 c ) の発光を撮像手段 ( 1 0 3 ) で撮像する と に よ り 刖記 発光 占 の位置を表す 情報を取得 し 、 か つ前記発光に 同期 して送信さ れる 刖 BC 別情報 を受信す る ス テ ツ プを 含み The information indicating the position of the light-emitting occupancy is obtained by imaging the light emission of the incidental element (11a, 11b1 1c) by the imaging means (103) by (2). And a step for receiving the BC-specific information, which is transmitted in synchronization with the light emission.
前記 心識ス テ ッ プは、 取得さ れた前記発光点の位置情 報 を 記 別情報で特定 さ れる 実世界オブジェ ク ト ( o a , O b 〇 c ) の位置 と して認識する ス テ ッ プを含む こ と を特徴 とする 請求項 2 記載の実世界オブジェ ク ト 認 識方法。 The knowledge step includes a real-world object (o 3. The method for recognizing a real-world object according to claim 2, further comprising a step for recognizing the position as a, O b 〇 c).
8 • 刖 PU π ン ピ ュ 夕 シス テム ( 2 ) に Ό 刖記付 帯 子 ( 1 1 a 1 1 b 1 1 c ) を特定す る 識別情報 を含む発光指示命 を送信する ス テ ッ プを さ ら に備え 8 • Step to transmit a light emission instruction including identification information to specify the 刖 attached band (1 1 a 1 1 b 1 1 c) to the PU π computer system (2) In addition to
前記 ン ピ ュ 夕 シス テム ( 2 ) の送信ス テ ッ プに づ < 発光指示命令が刖記付帯 子 ( 1 1 a 1 1 b 1 Based on the transmission step of the computer system (2), the light emission instruction is issued with the attached indicator (1 1 a 1 1 b 1
1 C ) に よ り 受信 さ れ 該発光指示命令 に含ま れ る 識別 情報が 自付帯素子に割 Ό 当 て ら れた識別情報 に 致する 場 P に該付帯 子の 刖記発光素子が刖記発光指示命令 に 応答 して所定時間ね び所定周期で繰 Ό 返 し 光 し た際 1C), when the identification information included in the light-emitting instruction command and included in the light-emitting instruction command matches the identification information assigned to the self-attached element, the light-emitting element of the accessory is recorded at P. When light is repeatedly emitted for a predetermined period of time and in a predetermined cycle in response to the flash command
m 記 受 信 ス テ 、ソ プ は m 記 3 ノ ' ピ ュ タ シ ス V ム The receiver and receiver for the m record are m records.
( 2 ) に よ り 前記付帯 子 ( 1 1 a 1 1 b 1 1 c ) の発光 を撮像手段 ( 1 0 3 ) で撮像する と に よ Ό 記 発光 占 の位置 を表す位置情報 を取得する ス テ ッ プを含み、 刖記. RJII < ア ツ プは 取得さ れた 刖記発光点の位置情 報 を 刖記識別情報で特定さ れる 実世界ォブジ ェ ク ( o a 〇 b , 〇 c ) の位 β と して口心識する ス テ ッ プを含む と を特徴 とする 口 H 求 2 記 の 世界ォブジ X ク き 。心 実 According to (2), the light emission of the accessory (11a11b11c) is imaged by the imaging means (103) to obtain position information indicating the position of the light-emitting area. The RJII <app contains the acquired location information of the light emitting point of the real world object (oa 〇 b, 〇 c) specified by the identification information. The world object X of claim 2, characterized in that it includes a step of orally sensation as the position β. Heart
方法 o  Method o
前記付帯素子 ヽ The auxiliary element ヽ
刖記 光指 命 に )心答 して前記撮像手段 ( 1 0 3 ) の (Note to the light command)
、 '.  , '.
フ レ一ム周期 に 同期 して刖記発光が行われて い る 際 に 、When the light emission is performed in synchronization with the frame cycle,
,
前記 JJ' 識ス テ ッ プは 、 記付帯素子 ( 1 1 a 1 1 b The above-mentioned JJ's recognition step is performed for the attached element (11a11b
1 1 c ) の発光持続時間 を前記撮像手段 ( 1 0 3 ) の 1 The light emission duration of 1 c) is determined by one of the imaging means (103).
,、  ,,
フ レ一ム 内 と し て 又定 し 、 刖記撮像手段の各 フ レ 一ム単 位の フ レ一ム画像信号に 前記付帯素子 ( 1 1 a 1A frame image signal of each frame unit of the imaging means is also defined as the frame.
1 b , 1 1 C ) の発光位置を連続的 に特定す る ス テ ッ プ を含む と を特徵 と する 求項 8 記載の実世界ォ ブジ ェ ク 口心 方法 1b, 11c). The method according to claim 8, wherein the method includes a step for continuously specifying the light emission position of (c).
、ヽ、 , ヽ,
1 0 • 実世界のォ ブンェ ク 卜 ( O a , O b , O c ) に 関連する 実世界才 ブジ X ク ト 情報 をサイ バー世界を構成 する ン ピ ュ ―タ シス テム ( 2 ) に Ό 。心¾J す る た め の 実世界ォブジ X ク き  10 • Real-world genuine business information related to real-world objects (Oa, Ob, Oc) is transferred to a computer system (2) that constitutes the cyber world. . Real World Obuji X X
口心識方法で め て 、  In the manner of oral sense,
、 '- ヽ  , '-ヽ
刖 記実世界ォ ブン ク 卜 ( 0 a o b o c ) に付 さ れ 、 一 ノ の識別情報が割 り 当 て ら れた付 素子 ( 1 1  付 The attached element (1 1 1) attached to the real world object (0 ao boc) and assigned with the identification information
、 - a 1 1 b 1 1 C ) か ら 発せ ら れた 刖記識別情報お よ び該付帯素子 ( 1 1 a 1 1 b 1 1 c ) の位置 を表す  , -A11b11C), indicating the identification information and the position of the associated element (11a11b11c).
、 - 位置情報 を 目 U記 n ン ピ ュ ―タ シス テム ( 2 ) に よ り 受信 する ス テ ク プ と  ,-Steps to receive position information by the computer system (2)
刖記付帯 子 ( 1 1 a 1 1 b , 1 1 c ) が付帯 さ れ  刖 Notes (11a11b, 11c) are attached.
 ,
て い る 実世界ォブジ X ク 卜 の画像を 刖記 ン ピ ュ 夕 シ ス テム ( 2 ) に よ 取得する ス テ ッ プ と 、 A step of acquiring the image of the real world object X cut by the recording system (2);
 ,
受信 し た 刖記付 fir ン 子 ( 1 1 a 1 1 b , 1 1 c ) の 別情報お び位 β情報を 刖記取得ス テ ッ プに よ Ό 取得 さ れた 世界ォブジエ タ 卜 ( 〇 a 〇 b 0 c ) の ¾ 象 に 関連付ける ス テ ッ プと Acquires the separate information and the position β information of the received fir-elements (11a11b, 11c) with the record by the record acquisition step. Steps to associate with the object of the world objet ((a 〇 b 0 c)
関連付け ら れた i記付帯素子 ( 1 1 a , l i b , 1 1 c ) の識別情報、 位置情報お よ び前記実世界ォブジ X ク 卜 ( 0 a O b , 0 c ) の 画像 に基づ い て 該付帯 、' 子 Based on the identification information and location information of the associated i-attached element (11a, lib, 11c) and the image of the real world object X cut (0aOb, 0c). The incidental child
( 1 1 a 1 1 b 1 1 c ) に対応する実世界ォ ブジ ク h ( 〇 a , O b 〇 c ) の位置 を コ ン ピュ ータ シス テ ム ( 2 ) に よ り 特定 して す る ス テ ッ プ と 、 The position of the real world object h (〇 a, O b 〇 c) corresponding to (1 1 a 1 1 b 1 1 c) is specified by the computer system (2) Steps and
を備 えた こ と を特徴 とす る実世界オブジ ェ ク ト 認識方 法。  A method for recognizing real-world objects, characterized by having
1 1 刖記付 W系ナ ( 1 1 a 1 1 b 1 1 c ) は 発光指示命令 に応答 して発光 し そ の発光点に関す る 情 報 を 記位置情報 と し て 出力する 発光素子を備えてお Ό 刖記 ン ピ ュ — タ シス テム ( 2 ) に よ Ό m fid付帯素 子 ( 1 1 a 1 1 b 1 1 c ) を特定す る識別情報 を含 む発光指示 叩 送信する ス テ ッ プを さ ら に備え The W-system (11a1 1b11c) with the notation emits light in response to the light-emitting instruction command, and emits information on the light-emitting point as recording position information.発 光 ン ン 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光 発 光Prepare more steps
記 ン ピ ュ 一 夕 シス テム ( 2 ) の送信ス テ ツ プに基 づ < 発光指示命令が前記付 素子 ( 1 1 a 1 1 b 1 Based on the transmission step of the recording overnight system (2), the light emission instruction command is sent to the attached element (1 1 a 1 1 b 1
1 C ) に よ り 受信 さ れ 該発光指示命令に含まれる 識別 情報が 白 付帯素子に割 当 て ら れた識別情報 に 致する 場 に該付帯 子 ら 刖記発光素子 を介 して発光が発せ ら れ ft場 α に 1C), when the identification information included in the light emission instruction command and included in the light emission instruction command matches the identification information assigned to the white accessory element, the accessory emits light via the light emitting element. Emitted to ft field α
刖 記 受 信 ス テ ッ プ は 記 ノ ' ピ ュ - 夕 シ ス テ ム 刖 The reception step is the record-evening system.
( 2 ) に よ り 刖記付帯素子の発光 を m記実世界ォブン X ク 卜 を今む所定の it像視野 域を有する 1 の it像手段According to (2), the light emission of the incidental element is One it image means with a given it image field of view
( 1 0 3 a ) を用 いて撮像する と に よ り 記発光 占 の 位置を表す位置情報 を取得する ス テ ッ プを含み Includes a step to acquire position information indicating the position of the luminous occupancy by imaging using (103a).
記画像取得ス J V プは 刖記 ン ピ ュ ―タ シス テム The image acquisition system is a computer system.
( 2 ) に よ 刖記第 1 の撮像手段 ( 1 0 3 a ) と 略 |pj の撮像視野領域を有する 第 2 の撮像手段 ( 1 0 3 b ) を 用 い て W1記実世界ォブン ク ( o a 〇 b O c ) の 画像 を撮像する ス テ ッ プを含む と を特徴 とする 求項According to (2), the first imaging means (103 a) and the second imaging means (103 b) having an imaging field of view of abbreviated | pj are used to write W1 real world objects (103). oa 〇 b O c)
1 0 記 の実世界ォブン ェ ク 卜 方法 10 Real World Object Method
1 2 • m記関連付け ら れた 記付帯 子 ( 1 1 a 11 2 • m Note associated with the mark (1 1 a 1
1 b 1 1 C ) の識別情報 位置情報お よび刖記実世界 ォブンェ ク 卜 ( 0 a 0 b o c ) の画像を所定の画像1b1 1C) Identification information Location information and images of real world objects (0a0boc)
3 ンテ ン 枠内 の画 象 3 ンテ ンッ と し て 示する ス テ ッ フ を備え、 The image in the 3 frame is provided with a step shown as 3 content.
前記第 1 お よ び第 2 の撮像手段 ( 1 0 3 a , 1 0 3 b ) の 象視野領域の 内 の少な ぐ と も 方は 刖 画 象 At least one of the first and second imaging means (103a, 103b) in the elephant field of view is the elephant image.
3 ンテ ン V枠よ も大さ < な ゥ てお り 3 Larger than the tenth V frame <
刖記画像 n ンテ ノ ッ枠外 に存在する他の実世界ォブン ェ ク 卜 ( 0 a 〇 b 〇 c ) の識別情報 発光 占位置情 報お よ び発光時 占 を含む状 n を脇待機状 と して 刖記第 Description image n Identification information of other real world objects (0 a 〇 b 〇 c) that exist outside the frame of the light emission. Then
1 お よ び第 2 の 像手段 ( 1 0 3 a 1 0 3 b ) の 内 の 少な < と 方の撮像手段 に よ り 得 ら れた情報に基づい て把握する ス テ ッ プと 1 and a step of grasping based on the information obtained by the lesser of the second imaging means (103a103b) and the lesser one of the imaging means.
の把握 した 刖記他の実世界ォブン ク 卜 ( O a O b , ο c ) の識別情報 発光 占位置情報お よび発光時 占 を認 P¾ する ス テ ツ プと Other real-world objects (O a O b, ο c) Identification information of the luminous occupancy position information and the occupancy at the time of luminescence
を さ ら に備え た と を特徴 とす る m求項 1 1 記載の実 世界ォブン ェ ク ト き口心 方法。  The real-world object method according to claim 11, wherein the method further comprises:
1 3 . 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) は、 当該付帯素子 ( 1 1 a l i b , l i e ) を付帯する 実 世界オ ブ ジ ェ ク ト の 状態 お よ び該実世界オ ブ ジ ェ ク ト13. The ancillary element (11a, lib, 11c) is a state of the real world object to which the ancillary element (11alib, lie) is attached and the real world object. Jet
( o a O b 〇 c ) の近 旁の状目 の 内の少な < と も 方 を感知 し の感知 し た実世界ォブンェ ク に 関す る セ ン シ ン グ情報 を 刖記 ン ピ ュ 夕 シス テム に 向 けて送 信する感知手段 ( 1 7 ) を有 してお Ό (oa O b 〇 c) A sensing system that senses a small number of objects in the vicinity of the object and stores sensing information about the detected real world object. It has sensing means (17) for transmitting to
刖記感知手段 ( 1 7 ) に よ り 感知 さ れた 記セ ン シ ン グ情報 を受信す る ス テ ッ プを備え  A step is provided for receiving the sensing information sensed by the sensing means (17).
wit ス テ ッ プは 受信 し た 刖記付帯 子 ( 1 1 a The wit step receives the attached note (1 1 a
1 1 b 1 1 C ) の識別情報お よ び位置情報に 刖記セ ン シ ン グ情報 を関連付け 関連付けた情報 を 刖記実世界ォ ブン ク 卜 情報 と し てき p cする ス テ プを含む と を特 徴 と する m 求項 1 乃至 9 の 内の何れか 1 項記載の実世界 ォブジ ク h認 ϋ方法 11b1 1C) The step of associating the sensing information with the identification information and the location information of (C) and assembling the linked information as the real world workbook information is included. M The real-world object h recognition method according to any one of claims 1 to 9, which is characterized by:
1 4 • 記 ン ピ ュ 夕 シス 了ム ( 2 ) によ 目' J記 付帯素子 ( 1 1 a 1 1 b 1 1 c ) を特定する 識別情 報 を含むセ ン シ ン グ指示命令を送信する ス テ ッ プを さ ら に備 え 、 -し 1 4 • Send a sensing instruction command including identification information that identifies the attached element (11a1 1b1 1c) by the computer system (2). To provide additional steps -
刖記コ ン ピ ュ ―夕 シス テム ( 2 ) のセ ン シ ン グ指示命 送信ス テ ッ プに基づ < セ ノ シ ン グ指示命令が前記付帯 素子に よ り 受信さ れ 該セ ン シ ン グ指示命令に含ま れる 識別情報が 自付帯 子に割 り 当て ら れ /こ pSi別情報 に一致 する 場合 に該付 ■ 子か ら 記感知手段 ( 1 7 ) を介 し て感知 さ れたセ ン シ ン グ情報が送信 さ れて きた場合に、 刖記セ ン シン グ情報受信ス テ ッ プは、 前記コ ン ピ ュ ー 夕 シス テム ( 2 ) に よ り 記付帯素子 ( 1 l a , l i b 刖 Computing-evening Sensing instruction command of the system (2) Based on the transmission step, a <sensing instruction command is received by the auxiliary element and the sensing instruction is received. When the identification information included in the singing instruction command is assigned to the self-attachment / equivalent to the pSi specific information, the identification information is sensed from the attachment through the sensing means (17). When the sensing information is transmitted, the sensing information receiving step is carried out by the computer evening system (2) by means of the recording element (1). la, lib
1 1 c ) のセ ン シ ン グ情報 を受信する ス テ ッ プを含む こ と を特徴 と する 求項 1 3 記 の実世界ォブジェ ク ト 認 識方法。 11. The method for recognizing a real-world object according to claim 13, which includes a step for receiving the sensing information of 1c).
1 5 • 刖記セ ン シ ン グ情報は 刖記付帯 子 ( 1 1 a1 5 • The sensing information is written in the attachment (1 1 a
1 1 b 1 1 c ) に割 り 当 て ら れた識別情報 とせ に 記1 1 b 1 1 c)).
3 ン ピュ 夕 シス テム ( 2 ) に向 けて送信 さ れてね り 刖記セ ン シ ン グ情報受信ス 丁 ッ プは 前記 ン ピ ―夕 シス テム ( 2 ) に よ 記識別情報を含むセ ン シ ン グ情 報 を受信する ス テ V プを含む と を特徴 とする n求項 13 It is sent to the computer system (2). The sensing information reception switch includes the identification information from the computer system (2). N step 1 characterized by including a step for receiving sensing information.
3 記 の実世界ォ ブジ X ク き P^ 方法 3 real worlds
1 6 • 刖記付 子 ( 1 1 a , 1 1 b 1 1 C ) は、 該付帯素子 ( 1 1 a 1 1 b , 1 1 c ) を付 する実 世界ォブジ X ク ( 〇 a , 〇 b , 〇 c ) の も 1 6 • The notation element (11a, 11b11C) is attached to the real-world object X ((a, 〇b) to which the accessory element (11a11b, 11c) is attached. , 〇 c)
状 Bp よ び該 実世界ォブンェ ク 卜 ( 0 a 〇 b , Ο C ) の近傍の状態 の 内 の少な < と 方 を咸知 し こ の咸知 し た実世界ォ ブン ク 卜 ( 0 a ο b Ϊ 〇 C ) に 関する セ ン シ ン グ情 報を 刖記 ン ピ ュ タ シス テム ( 2 ) に向 けて送信する 感知手段 ( 1 7 ) を有 してお り 、 The state Bp and a small number of the states in the vicinity of the real world object (0 a 〇 b, Ο C) are known. It has sensing means (17) for transmitting sensing information about the block (0 a ο b Ϊ 〇 C) to the recording computer system (2). ,
記感知手段 ( 1 7 ) に よ り 感知 さ れた 刖記セ ン シ ン グ情報を受信す る ス テ V プを備え 、  A step for receiving the sensing information sensed by the sensing means (17);
前記画像関連付けステ ッ プは 、 刖記受信 し た 刖記付帯 子 ( 1 1 a 1 1 b 1 1 C ) の識別情報 、 位置情報 お びセ ン シ ン グ情報を 記取得ス テ ッ プに よ 取得さ れた実世界才ブン X ク 卜 ( 〇 a 0 b , O C ) の画像 に 関連付ける ス テ ッ プを含み 、  The image associating step includes the identification information, the position information, and the sensing information of the received recording accessory (11a1 1b11C) in the recording acquisition step. Includes the steps to associate with the image of the real world talent X-cut ((a0b, OC)
刖 記 識ス テ • ッ プ は 、 関連付 け ら れた 刖 記付帯素子 識 The marking steps are the associated 刖
( 1 1 a 1 1 b 1 1 C ) の識別情報 、 位置情報 、 セ ン シ ン グ情報お び刖記実世界ォブジ 工 ク 卜 ( O a , o b 0 c ) の画像に基づ < 実世界才ブジ X ク 卜 情報 き刃 口心 識する ス テ V プを含む と を特徵 と する B冃求項 1 0 乃至(11a1 1b1 1C) based on the identification information, location information, sensing information, and the image of the real world object (Oa, ob0c) B-item X, which is characterized by including a step to be aware of
1 2 の 内 の何れか 1 項記 の実世界ォブン X ク 卜 1 Real-world X-box of any one of 2
1 7 刖記 3 ン ピ ュ 夕 シス テム ( 2 ) に り 、 刖 ΒΠ 付帯 子 ( 1 1 a 1 1 b 1 1 c ) を特定す る 喊別情 報 を含むセ ン シ ン グ指示命令を送信する ス テ ッ プを さ ら に備え 、 17 7 By the computer system (2), a sensing instruction including the information on the cruise to identify the child (11a1 1b1 1c) is issued by the computer system (2). Be prepared to send more steps
前記 ン ピ ュ ―夕 シス テム ( 2 ) のセ ンシ ン グ指示命 ム送信ス テ ッ プに基づ < セ ン シ ン グ指示命令が刖 Bel付帯 素子 ( 1 1 a 1 1 b 1 1 c ) に よ り 受信 さ れ、 該セ ン シ ング指 命令 に含まれる 別情報が 自 付 子 に割 り 当 て ら れた識別情報に 致する 場 口 に該 ■ Based on the sensing instruction transmission step of the above-mentioned system- evening system (2), the <sensing instruction command is 刖 Bel attached element (1 1 a 1 1 b 1 1 c ), And If the other information included in the single finger instruction matches the identification information assigned to the self
付 素子か ら 刖記感知手段 ( 1 7 ) を介 して感知 さ れたセ ン シ ン グ情 報が送信 さ れてさ た場 □ に  When the sensing information sensed from the attached element via the sensing means (17) is transmitted, □
刖記セ ン シ ング情報受信 ステ ッ プは 刖記コ ン ピ . 夕 シス テム ( 2 ) に よ り 記付帯素子 ( 1 1 a 1 1 b The step of receiving the sensing information is as follows: The recording system (2) uses the recording element (11a1 1b
1 1 c ) のセ ン シ ン グ情報 を受信するス テ ッ プを含む と を特徴 とする S冃求項 1 6 記 の 世界ォブン ェ ク 口心 識方法。 11. The method of claim 16, wherein the method includes a step for receiving the sensing information of 11 c).
1 8 • 刖記セ ン シ ング情報は 刖記付帯素子 ( 1 1 a1 8 • The sensing information is written in the attached element (1 1 a
1 1 b 1 1 c ) に割 り 当 て ら れた識別情報 と共 に前記Together with the identification information assigned to 1 1b 1 1c)
3 ン ピ ュ 夕 シス テム ( 2 ) に向 けて送信 さ れてお り 3 Sent to the evening system (2)
記セ ン シ ン グ情報受信ス テ ッ プは 記 ン ピ ュ 夕 シス テム ( 2 ) に よ り IB n l別情報 を含むセ ン シ ン グ情 報 を受信する ス テ ッ プを含む と を特徴 とする 冃求項 1 The sensing information receiving step includes a step for receiving sensing information including IB nl-specific information by the computing system (2). Feature Claim 1
6 記載の実世界ォブン ク 卜 心 方法 6 Description of the real world method of mind
1 9 刖記付帯素子 ( 1 1 a 1 1 b 1 1 C ) は 所定の動作を実行す る 作用 子 ( 1 6 a ) を有 し て り 、 記 コ ン ピ ユ ー 夕 シス テム ( 2 ) に よ り B'J記付帯素 子 ( 1 1 a l i b 1 1 c ) を特定す る 識別情報 を含 む作用 素子作動命令 を送信する ス テ ッ プ と 1 9 付 The attached element (1 1 a 1 1 b 1 1 C) has an operator (16 a) for performing a predetermined operation, and is connected to the computer system (2). And a step for transmitting an action element operation command including identification information for specifying the B'J-attached element (11 alib 11 c).
刖記作用 子 ( 1 6 a ) に よ り 前記作用 子作動命 に応 じて実行さ れた所定の 作に 関する 1會報が送信 さ れ て さ た際に、 その動作に Inする 作関 情報を受信する ス テ ッ プと を さ ら に備え 、 (1) A bulletin regarding a predetermined operation executed in response to the operation order of the operator is transmitted by the operator (16a). In this case, a step for receiving the operation information that is included in the operation is further provided,
'- 刖記口芯 pg¾ス テ ッ プは 、 受信 し た 刖記付帯 子 ( 1 1 a ,  '-刖 口 芯 ¾ は ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾-
1 1 b , 1 1 c ) の識別情報 よ び位置情報に 刖記動作 関連情報 を 関連付け、 関連付けた情報を 刖記実世界ォブ ジ ク 卜 情報 と して ^口' t»識する ス テ ッ プを含む と を特徵 と する請求項 1 乃至 9 の内 の何れか 1 項記載の実世界ォ ブン X ク 卜 き口 ' 方法。 11b, 11c), the relevant information is associated with the operation information, and the associated information is regarded as the real-world object information. The method of claim 1, wherein the method includes a tip. 10. The method of claim 1, further comprising:
2 0 刖記 3 ン ピ ュ 夕 シス テム ( 2 ) の作用 子作 動命 送信ス テ V プに基づ < 作用 子動作命令が 記付 帯素子 ( 1 1 a 1 1 b 1 1 c ) に よ り 受信さ れ 、 該 作用 素子動作命令に含ま れる識別情報が 自 付帯素子に割 り 当 て ら れた識別情報に 致す る 場 (=3 に該付帯 子カゝ ら 刖記作用 子作動命令に応 じ て実行 さ れた所定の動作に 関する 情報が送信さ れてさ た場合に 、 刖記動作関連情報受信ス テ ッ プは 、 m記 ン ピ ュ ― タ 20 Note 3 Operator operation of the computer system (2) <Operator operation command is applied to the attached element (1 1 a 1 1 b 1 1 c) based on the transmission step. When the identification information included in the operation element operation instruction is received by the communication device and the identification information assigned to the self-attached element matches the identification information (= 3, the auxiliary element operation instruction is issued). When the information on the predetermined operation executed in response to the information is transmitted, the operation-related information receiving step is executed by the m-operation computer.
.、  .,
シス テム ( 2 ) に よ Ό 刖記付帯 子 ( 1 1 a j 1 1 b , According to the system (2) Ό 付 付 (1 1 a j 1 1 b,
1 1 c ) の動作関連情報 を受信す る ス テ ッ プを含む こ と を特徵 と す る 求項 1 9 記載の実世界ォブン X ク 卜 11. A real-world X-cut according to claim 19, which includes a step for receiving the operation-related information of 1 c).
方法。 Method.
2 1 . 前記動作関連情報は、 前記付帯素子 ( 1 1 a l i b , 1 1 c ) に割 り 当 て ら れた識別情報 と共に 前記 コ ン ピ ュ ー タ シス テム ( 2 ) に 向 けて送信 さ れてお り 、 刖記 作関連情報受信ス テ ッ プは 記 ン ピ ュ 夕 シ ス テム ( 2 ) に よ 刖記識別情報を含む動作関連情報を 受信す る ス テ V プを含む と を特徴 とす る 求項 1 9 記 の実世界ォブジ X ク 方法 21. The operation-related information is transmitted to the computer system (2) together with the identification information assigned to the auxiliary element (11 alib, 11 c). And 刖 The operation-related information receiving step is characterized in that the operation-related information receiving step includes a step for receiving the operation-related information including the identification information by the recording system (2). Section 19: Real World Object Method
2 2 刖記付帯素子 ( 1 1 a , 1 1 b 1 1 c ) は 所定の動作 を実行する 作用 素子 ( 1 6 a ) を有 し てお り 、 2 2 刖 The attached elements (1 1 a, 1 1 b 1 1 c) have action elements (16 a) for performing predetermined operations, and
'- 刖記 3 ン ピ ュ 夕 シス テム ( 2 ) に よ り 刖記付帯素 子 ( 1 1 a 1 1 b 1 1 c ) を特定する識別情報 を含 む作用 素子作動命令を达信する ス テ V プと  '-3 3 3 ス 作用 作用 作用 作用 作用 ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス ス スWith tape
刖記作用 素子 ( 1 6 a ) に よ り 前記作用 素子作動命 "P に応 じ て実行さ れた所定の動作 に関する 情報が送信 さ れ て さ た.際 に そ の動作 に関する 動作関連情報を受信す る ス テ ヅ プ と を さ ら に備え  The information on the predetermined operation executed in response to the operation element operation instruction "P" is transmitted from the operation element (16a). At this time, the operation-related information on the operation is transmitted. In addition to the receiving step
刖記画像関連付けス テ ッ プは、 目 U記受信 し た前記付帯 素子 ( 1 1 a 1 1 b j 1 1 c ) の識別情報 位置情報 お よ び動作関連情報 を 刖記取得ス テ ッ プに 取得 さ れ た実世界ォ ブン ェ ク 卜 ( O a , O b 〇 c ) の画像に 関 連付け る ス テ ッ プを含み  In the image association step, the identification information, the position information, and the operation-related information of the incidental element (11a11bj11c) received are stored in the record acquisition step. Includes steps associated with images of acquired real world objects (Oa, Ob bc)
刖 記 u戟 ア ツ プは 、 関連付 け ら れた 前記付帯素子 The u-motion amplifier is associated with the associated element.
( 1 1 a , 1 1 b 1 1 c ) の識別情報 ML置情報 動 作関 情報お よ び刖 BC実世界ォブジ X ク ( 〇 a O b ,(11 a, 11 b 1 1 c) identification information ML location information operation related information and BC real world object X (〇 a O b,
Ο c ) の画像に基づ く 実世界ォブジ X ク 卜 情報を 口心識す る ス テ ッ プを含む こ と を特徴 と する 請求項 1 0 乃至 1 2 の 内 の何れか 1 項記載の実世界オブジ ェ ク ト 認識方法。 、 The method according to any one of claims 10 to 12, characterized in that the method includes a step of fuzzily recognizing real world object X cut information based on the image of (c). Real world object recognition method. ,
2 3 刖記 ン ピ 夕 ンス テム ( 2 ) の作用 子  2 3 Operator of operator (2)
、 作命 送信ス テ V プに基づ < 作用 素子動作命令が刖記付 帯素子 ( 1 1 a 1 1 b , 1 1 c ) に よ り 受信さ れ 、 該 作用 素子動作命令 に含まれる識別情報が 付帯素子 に割 り 当 て ら れた識別 報に 致する 場 口 に該付帯 子か ら 刖 目 3作用 素子作動命令 に応 じて実行 さ れた所定の 作 に 関する 情報が送信さ れて さた 合 に 、  The operation element operation instruction is received by the ancillary element (11a11b, 11c) based on the transmission step and the identification included in the operation element operation instruction. At a location where the information matches the identification information assigned to the attached element, information on a predetermined operation executed in response to the third action element activation command is transmitted from the attached element. If you
前記動作関連情報受信ス テ ッ プは、 記 ン ピ ュ 夕 シス テム ( 2 ) に よ り HIJ記付帯素子 ( 1 1 a 1 1 b The operation-related information receiving step is performed by the recording system (2) using the HIJ-attached element (11a1 1b
1 1 c ) の動作関連情報を受信する ス テ ッ プを含む し と を特徵 と する β冃求 m 2 2 記 の実世界ォブン ェ ク 卜 。心 方法。 2 4 . 刖記動作関連情報は 、 刖記付帯 子 ( 1 1 a11. A real world object of β request m22 characterized by a step including a step for receiving the operation related information of 11c). Heart way. 24. The recording operation related information is written in the
1 1 b , 1 1 c ) に割 Ό 当 て ら れた識別情報 と丑 に 記11b, 11c) and the identification information assigned to
3 ン ピ 夕 シス テム ( 2 ) に向 けて送信 さ れて り 記動作関連情報受信ス テ ッ プは 、 前記 ン ピ ュ 夕 シ ス テム ( 2 ) に よ 刖記識別情報 を含む動作関 情報 を 受信する ス テ V プを含む こ と を特徵 とす る 求項 2 2 記 The step of receiving the operation-related information transmitted to the computer system (2) includes the operation-related information including the identification information by the computer system (2). Claim 22 characterized in that it includes a step for receiving information
ヽ、  ヽ,
載の実世界ォブン X ク pji 口-^方法 Real World Oven X Ku Pji Mouth- ^ Method
、❖ 、, ❖,
2 5 . 記口' の対象 とする実世界ォ ブン X ク 卜 が 記撮像手段 ( 1 0 3 ) の撮像視野領域内 に n P¾ さ れて い る か否の状況 を 刖記 ン ピ ュ タ シス テム ( 2 ) に り 所定の時定 内で判定 し 所定の時定 内でき さ れれ ば 記実世界ォ ブン X ク 卜 ( 0 a 0 b O c ) が刖 記撮像視野領域内 に登 した と判定 し き 識 さ れな けれ ば 刖記実世界ォブジ ク 卜 ( 〇 a 〇 b 〇 C ) が刖 記撮像視野領域内か ら 退場 し た と判定す る と を特徴 と す る 3冃求項 2 乃至 2 4 の 内 の何れか 1 項記載の実世界ォ ブン X ク 卜 B心 方法 25. Record the status of whether or not the real world X-cut to be the target of the 'recording' is nP in the field of view of the recording means (103). System (2) Judgment is performed within the predetermined time period. If the time is within the predetermined time period, it is determined that the real world X-cut (0a0bOc) has climbed into the imaging field of view. Otherwise, it is determined that the real world object (〇 a 〇 b 〇 C) has left the inside of the imaging field of view. The real-world Xbox B method described in any one of the above
2 6 • 刖 記撮像手段 ( ] L 0 : 3 : X 1 0 3 y 1 0 3 z ) は複数設 け ら れて り 2 6 • The image pickup means (] L 0: 3: X 10 3 y 1 0 3 z) is provided in plural.
該複数の撮像手段 ( 1 0 3 X 1 0 3 y 1 0 3 ζ ) に よ り 複数の フ レ ム画像信号 を IfJ]期 さ せて撮像する ス テ ッ プ と  A step in which a plurality of frame image signals are picked up by the plurality of image pickup means (10 3 X 10 3 y 10 3..
各撮像手段 ( 1 0 3 X 1 0 3 y 1 0 3 z ) か ら 得 ら れる 発光点座 1 に基づいて 角測 に よ り 刖記実空間 ォブジ ク ( 0 a 〇 b 0 c ) の 間位置情報 を取 得する ス テ ヅ プ と  Based on the luminous point 1 obtained from each imaging means (103 X103 y103z), the angle between the recorded real space object (0a 〇 b0c) is determined by angle measurement. Steps to get location information and
取得 し た空間位置情報 を 刖記実世界ォ ブン X ク 卜 ( 〇 a 0 b 〇 c ) の位置情報 と し てき 識する ス テ ッ プ と を さ ら に備えた と を特徴 とする 求項 2 乃至 2 5 の 内 の何れか 1 項記 の .世界ォブン X ク き 方法  A step of further comprising a step of recognizing the acquired spatial position information as the position information of the real world obn X cut ((a0b〇c). The method of World X X in any one of 2 to 25
2 7 • 刖記口 ス ァ V プは 2 7 • 口 口
前記実世界ォブジ X ク 卜 ( 〇 a , O b O c ) の付帯 す る 付堂素子 ( 1 1 a 1 1 b 1 1 c ) の過去の発光 によ る 位 か ら 推定 さ れる領域を優先 して 光 占 を 識する ス テ ッ プと Past emission of the attached element (11a11b111c) attached to the real world object X-cut (〇a, ObOc) The step of recognizing the light occupation by giving priority to the area estimated from the position
記第 2 の撮像手段 ( 1 0 3 b ) に よ る 像画像か ら 過去の発光 占 を含むォブン X ク h の輪郭 を捕捉 し 前記 付帯素子 ( 1 1 a 1 1 b 1 1 c ) の発光が口心識でさ ない 間は 刖記第 2 の撮像手段 ( 1 0 3 b ) の撮像画像 か ら 刖記ォブン ェ ク 卜 の輪郭の移動 を追跡す る と に よ り 刖記付帯素子 ( 1 1 a 1 1 b , 1 1 c ) の 時的 穩蔽を補間する ステ V プ と  The contour of the X-h h including the past light emission occupation is captured from the image image by the second imaging means (103 b), and the light emission of the auxiliary element (11a1 1b1 1c) is performed. During the period when the user is unaware of the fact, the movement of the outline of the object is tracked from the image captured by the second imaging means (103b), whereby the additional element ( 1 1 a 1 1 b, 1 1 c)
を さ ら に備えた と を特徵 とす 求項 1 1 1 2 Claim 1 1 1 2 which further comprises
1 6 2 2 お よ び 2 3 の 内 の何れか 1 項記 の 世界才 ブン ェ ク 卜 き口心 方法 1 6 2 2 and 23, any one of the methods described above
2 8 • 刖記口心 ス テ V プは 2 8 • 刖
記実世界ォブン ク 卜 ( O a 〇 b O c ) の付帯 する 付帯素子 ( 1 1 a 1 1 b 1 1 c ) の発光 子か ら の 発光点 をき口心識す る た め の発光パ 夕 ―ン のテ ン プ レ と 記付 素子 ( 1 1 a 1 1 b 1 1 c ) の過去 の発光部分画像を反映する か ま た は 該実世界ォ ブジ ェ ク 卜 ( 0 a ο b O c ) の付帯する 付帯素子の発光 素子か ら の発光 占 をき 識する ため の発光パ 夕 ン のテ ン プ レ と して過去の付帯 子の発光 占位置口心識 に使わ れたテ ンプ レ 卜 と をマ ッ チ ン グ して 刖記付帯 子 ( 1 A light emitting point for detecting the light emitting point from the light emitting element of the incidental element (11a11b111c) attached to the real world object (Oa〇bOc). Either reflect the past light-emitting partial image of the evening template and the marking element (1 1 a 1 1 b 1 1 c) or use the real-world object (0 a ο b O c) A template used as a template for a light emitting panel to recognize the light emission from the light emitting element of the incidental element attached to the light emitting element of the past. Match the letter with the letter (1
1 a 1 1 b 1 1 c ) の発光素子か ら の発光 占 を特疋 する ス テ y プを備え た と を特徴 とする 求 2 乃至 9 お よ び 1 1 乃至 2 6 の 内 の何れか 1 項記載の実世界ォブ ジ ェ ク ト 認識方法。 1 a 1 b 1 1 c) wherein the light emitting device includes a step for specially examining the light emission from the light emitting element of claims 2 to 9. And a method for recognizing a real world object according to any one of items 11 to 26.
2 9 - 刖記 象手段 ( 1 0 3 ) の撮影条件を - ¾5 し て い る 最中 は 記発光検出処理 を 中 断する ス テ ッ プ を備 え た と を特徵 とす る 請求項 2 乃至 2 8 の 内 の何れか 1 項記 の 世界ォブン X ク h 口心識方法 2 9-Claim 2 is characterized in that a step for interrupting the recording detection process is provided while the photographing condition of the recording means (10 3) is--5.世界 ォ 世界 世界 世界 世界 世界 世界 世界 世界
3 0 • 刖記 光 占 の位 情報取得ス テ ッ プは 記ネ 数の発光点の位置き口心識がめ た時は その時点で抽 出 し た発光 占位置情報 を廃棄する と を特徴 と する 求項 2 乃至 9 お よび 1 1 乃至 2 9 の 内 の何れか 1 項記載 の実 世界ォブン X ク 卜 o 方法 3 1 - 刖記口心 ス テ プは 30 • The step of acquiring the position of the light-emitting position information is characterized by discarding the light-emitting position information extracted at that time when the position of the light-emitting point of the number is recognized. The method of the real world X-X o method 3 1-記載 described in any one of the requests 2 to 9 and 11 to 29
記付 子の複数回 の発光 よ び非発光か ら な る 発 光パ 夕 ン を照合確口心 し の発光 タ ン に り 当該 付帯 子 ( 1 1 a 1 1 b 1 1 c ) が付帯さ れる 記 実世界の ォブジ ク h ( 〇 a 〇 b 〇 c ) の位置 をき口心 識 し の位置情報 識別情報お よ び発光時 占 に関す る 情報 を互い に関連付ける と を特徵 とする m求項 2 乃至 The light emitting pattern consisting of multiple flashes and non-flashes of the indicator is collated. The flasher is a luminous tan, and the corresponding accessory (11a1 1b1 1c) is attached. The feature of m is to determine the position of the real world object h (〇 a 〇 b 〇 c), and to associate the position information of the mouth and mind with the identification information and the information on the occupancy of light emission. Items 2 to
9 お よ び 1 1 乃至 3 0 の 内 の何れか 1 項記載の実世界 ォ ブン X ク h 口心 方法 3 2 . 前記認識ス テ ッ プは、 前記実世界オブジ ェ ク ト ( 〇 a O b 〇 C ) の付帯する 付帯 子 ( 1 1 a 19 and the method of any one of 11 to 30 of the real world X-h method according to any one of the above items 32. The recognition step is performed by the real world object. (〇 a O b 〇 C)
1 b 1 1 c ) の発光素子か ら の発光 占 を ΡΊ 識す る た め の発光パ 夕 ―ンのテ ンプ レ ― 卜 と して 該付帯素子 ( 11b 1 1c) as a template of the light emitting panel for recognizing the light emission from the light emitting element of (c).
1 a 1 1 b 1 1 c ) の 中央の光強度を 大路光値付 近 と し その 中央か ら 円錐状に光強度が下がる テ ン プ レ 卜 を使用する と を特徴 とする Θ冃求項 2 乃至 9 ね び 1 1 乃至 3 1 の何れか 1 項 に 載の実世界ォブン ェ ク 方法 The light intensity at the center of 1 a 1 1 b 1 1 c) is set to be close to the light intensity of the path, and a template whose light intensity decreases conically from the center is used. 2-9 Nine-by-one method 11-11
m  m
3 3 刖記付帯 子 ( 1 1 a j 1 1 b 1 1 c ) は 波長の異な る複数の発光素子を備えて り 3 3 刖 The tag (1 1 aj 1 1 b 1 1 c) has a plurality of light emitting elements with different wavelengths.
刖記撮像手段 ( 1 0 3 ( : 3 3 0 ) ) は 刖 Β複数 の発 光素子の複数の波長 に対する 減衰里の異な る フ ィ ル夕 を 備えて い る と を特徴 とする 求項 2 乃至 9 び 1 Claim 2 wherein the imaging means (103 (: 330)) is provided with filters having different attenuation values for a plurality of wavelengths of a plurality of light emitting elements. To 9 and 1
1 乃至 3 2 の 内の何れか 1 項記載の実世界ォブン ェ ク 卜 方法 3. The real world object method according to any one of 1 to 32.
3 4 刖記発光 子は 発光指示命 に応答 し て そ の光強度 を変えなが ら 発光する と を特徴 とする 求項34. The method according to claim 1, wherein the light-emitting element emits light while changing its light intensity in response to the light-emitting instruction.
2 乃至 9 お び 1 1 乃至 3 2 の 内 の何れか 1 項記載の 実世界ォブン ク h き 方法 The method for real world observing according to any one of 2 to 9 and 11 to 32
3 5 . 前記発光素子は複数であ り 、 そ の複数の発光素 子は、 そ の発光素子数に応 じ て該複数の発光素子全体の 光強度 を変えなが ら 発光する こ と を特徴 と する請求項 3 4 記 の 世界ォブン ェ ク 卜 き 識方法 35. There are a plurality of light emitting elements, and the plurality of light emitting elements emit light while changing the light intensity of the plurality of light emitting elements as a whole according to the number of the light emitting elements. Claim 3 4 world object recognition methods
 Real
3 6 刖記き心識ス テ V プは 、 刖記撮像手段 ( 1 0 3 ) に よ り 得 ら れた注 目 フ レ ―ム 画像信号の 内 、 そ の受光強度が所定値以上の領域を 内包 する 最小矩形 の 中 の発光面積率が所定値以上であ つ た領 域を主た る発光き口心識対象 に設定す る こ と を特徵 と す る 求項項 2 乃至 9 、 よび 1 1 乃至 3 5 の 内 の何れか 1 項 36 The noted knowledge step V is an area in which the received light intensity of the attention frame image signal obtained by the noted imaging means (103) is higher than a predetermined value. Claims 2 to 9, which are characterized in that the area in which the luminous area ratio in the minimum rectangle that contains the luminous area is greater than or equal to a predetermined value is set as the main luminous object. 1 Any one of 1 to 35
 ,
記載の 世界才ブン X ク き口心識方法。 The listed world talent bun X k
3 7 • 実世界のォブン ク 卜 ( o a 〇 b 〇 c ) に 3 7 • In the real world (o a 〇 b 〇 c)
 ,
関連する 実世界ォブン X ク 情報 をサィ パ ―世界 を構成 Related real world X
、❖  , ❖
する た め の実世界ォブン X ク 卜 口心 装置であ て 、 A real-world X-cut oral device for
 ,
記実世界ォブン ェ ク ( 0 a 〇 b 〇 C ) に付 w さ れ 、 一 の識別情報が割 り 当 て ら れた付楚 ン 子 ( 1 1 a 1 1 b , 1 1 c ) か ら 発せ ら れた刖記識別情報 び該付 w素子 ( 1 1 a 1 1 b 1 1 C ) の位置 を表す 位置情報 を受信する手段 と 、 受信 し た 記付帯 子 ( 1 1 a 1 1 b 1 1 C ) の 識別情報お よ ぴ位置情報 に基づい て該付帯素子に対応す  It is attached to the real world object (0a 〇 b 〇 C), and is assigned to a single identification information from the nubs (11a11b, 11c). Means for receiving the emitted identification information and the position information indicating the position of the attached w element (11a11b11C), and the received attached band (11a11b1) 1C) and the corresponding element based on the location information.
、 *  , *
る 実世界ォブン X ク 卜 ( 〇 a ラ O b 0 c ) の位置 を特 定 して n心識す る 手段 と 、 A means for identifying the position of the real world X-cut (〇aLaOb0c)
を備え た し と を特徵 とす る 実世界ォブジ X ク 卜 口心識装 置。 3 8 • 刖記付 子 ( 1 1 a , 1 1 b , 1 1 c ) は、 発光指示命令 に応答 して発光 し 、 その発光ハ占、ヽに 関する 情 報 を 刖記位置情報 と し て出力する発光素子を備えてお り 、 刖記付帯 子を特定する識別情報を含む ·発光指示命 を送信する 手段 ( 2 1 ) を さ ら に備え 、 A real-world object X-Kut oriental sensation device that features a shito with a. 3 8 • The indicator (11a, 11b, 11c) emits light in response to the light-emitting instruction command, and information on the light-emitting area and the light is recorded as the position information. A light emitting element for outputting the light, and further including means (21) for transmitting a light emitting instruction, including identification information for specifying the tag.
記送信手段 ( 2 1 ) に基づ く 発光指示命 が 記付 帯素子 ( 1 1 a , 1 1 b , 1 1 c ) に り 受信 さ れ 、 該 発光指示命 "P に含まれる 0^別情報が 白 付帯 子に割 り 当 て ら れた識別情報に一致す る 場 A ί 該付 素子か ら 前記 発光 子を介 して発光が発せ ら れた場合 に 、  The light emission instruction based on the transmission means (21) is received by the attached element (11 a, 11 b, 11 c), and the light emission instruction is included in the light emission instruction “P”. A where the information matches the identification information assigned to the white accessory A. When light emission is emitted from the attached device via the light emitter,
記受信手段は 、 刖記付帯素子 ( 1 1 a ? 1 1 b , 1 The receiving means is a 刖 attached element (11a? 11b, 1
1 C ) の発光 を 撮像手段 ( : 2 2 ( 1 0 ' 3 ; ) ) を用 い て フ レ一ム単位の画像 と して撮像する こ と に よ Ό 刖記発光点 の位置 を表す位置情報 を取得する 手 を備え 、 The light emission of 1C) is captured as a frame unit image using imaging means (: 22 (10'3;)). Equipped with a hand to obtain information,
 ,
刖記 ρ 識手段は 、 取得 さ れた 刖記発光ハ占、、 の位置情報を  The record ρ recognition means uses the acquired record information,
、■*»  , ■ * »
刖記実世界ォブン X ク 卜 ( 〇 a , ο b 〇 c ) の位置 と して 。心識する 手段を備えた 刖 As the position of the real world oven X cut (〇 a, ο b 〇 c). With the means to know
と を特徵 とする Si  Si featuring
求項 3 7 記載の実世界ォブジ X ク 口心 装  Claim 37: Real World Object X
3 9 記き口心識手段は、 3 9
前記撮像手段 ( 2 2 ( 1 0 3 ) ) に り 撮像 さ れた 記付帯 子の発光時点の注 S フ レ一ム画像信 か ら 時間 軸上の近傍の フ レ一ム画像信号を所定の強度比率で減算 する 手段 ( 2 3 ) と 、 の 算処理の施 さ れた注 フ レ ム画像信号 に対 し て 間 フ ィ ル夕処理お よ びパタ ン マ V チ ン グ処理の 内 の少な < と 方を含む ノ ィ ズ低減処理 を施す手段 ( 2A predetermined frame image signal on the time axis is obtained from the note S frame image signal at the time of light emission of the tag imaged by the imaging means (22 (103)). Means (23) for subtraction by intensity ratio, and For the frame image signal that has been subjected to the arithmetic processing of the above, the noise reduction processing that includes the lesser of the inter-field processing and the patterning V-processing is performed. Means of application (2
3 ) と 3) and
の ノ ィ ズ低減処理 を施さ れた フ レ ム画像信号 お  Frame image signal and noise reduction processing
,、  ,,
いて画素濃度の最 も 高 い画像を 記付帯 子の発光像 とImage with the highest pixel density
。心識す る 手段 ( 2 3 ) と . Means of knowledge (23) and
の ρΛ識 し た発光像の フ レ ―ム画像内位置を付帯素子 The position in the frame image of the luminescence image recognized by ρ
( 1 1 a 1 1 b 1 1 c ) の位置 と し て特定かつ する 手段 と (1 1 a 1 1 b 1 1 c)
を さ ら に備えた _ と を特徵 と する 冃求項 3 8 記載の実 世界ォブジ X ク き  The real world object according to claim 38, further comprising _ and.
B心 装  B core
4 0 • 刖記減 手段 ( 2 3 ) は 刖記注 フ レ 、 ム画 像信号か ら 隣 ; フ ' レ - ム 画像 a 」 (よ 'び ' 記付 ■ 素子40 • The memory reduction means (23) is adjacent to the image signal and the frame image signal; “frame image a”
( 1 1 a 1 1 b 1 1 c ) の非発光時の フ レ ム画像 信号の 内 の少な < と 方を減算する処理 よ び刖記注 フ レ ―ム画像信号か ら 前後の フ レ ―ム画像信号 を所定 の強度比率で減算す る 処 の 内の何れか一方を行 手段 と (1 1 a 1 1 b 1 1 c) The process of subtracting a small <from the frame image signal when no light is emitted and the note before and after the frame image signal. One of the processes for subtracting the image signal at a predetermined intensity ratio from the
の減算処理 果 と して負数 と な る 刖記注 巨 フ レ ―ム 画像信号内 の画 信号お よび所定の 閾値以下 と な る 注 巨 フ レ ム画像信号内 の画 信号の 内 の少な < と も 方を除去する手段 と  Note that the result of the subtraction processing becomes negative. Note: The image signal in the huge frame image signal and the small number of the image signal in the huge frame image signal Means to remove both
を備えた と を特徵 とする 日冃求項 3 9 記載の実世界ォ ブジ ク 卜 き口心 装 The real world described in claim 39, which features and Business center
4 1 刖記ノ ィ ズ低減処理手段 ( 2 3 ) の空間 フ ィ ル 夕 処理は 、 前記注 フ レ ム画像信号 にお け る所定の フ ィ ル夕サィ ズの被 フ ィ ル 夕 U ン グ範囲 内 の各画 の画素 信号の強度値を平均化す る処理 を 刖記注 フ レ ム画像 信号の全領域にフ いて実施 し 、 こ の平均化 さ れた信号強 度に沁 じ て優先順位を付与する処理 を含み 、 41. The spatial filter processing of the noise reduction processing means (23) is performed in accordance with the predetermined filter size in the note frame image signal. Note: The process of averaging the pixel signal intensity values of each image within the image range is performed over the entire area of the frame image signal, and priority is given to this averaged signal intensity. Including the process of assigning a ranking,
記 n 夕 ン V チ ン グ処理は、 所定サィ ズの被パ 夕 ンマ ッ チ ン グ領域につ いて の 刖 BC付帯素子の発光パ 夕 ン に類似 し た定義 n夕 ン と の相関処理 を 刖記注 巨 フ レ ―ム画像信 の全領域 に いて実施 し 、 そ の結果の信 号強度に応 じて優先順位 を付与する 処理 を含み 、  The V-tuning process is a correlation process with a definition similar to the emission pattern of the 刖 BC-attached element in the pattern-matching region of a predetermined size.注 Note: This process is performed for the entire area of the big frame image signal, and includes the process of assigning priorities according to the signal strength of the result.
記 ノ ィ ズ低減処理手段 ( 2 3 ) は 、 目 U記空間 フ ィ ル 夕処理お よ び 記パ 夕 ン ッ チ ン グ処理の 内の少な < と 一方の処理 に よ り 付与さ れた優先順位に基づいて 刖 The noise reduction processing means (23) is provided by one of the processing of the U-space recording file processing and the recording matching processing. Based on priority 刖
.ヽ 記発光 占 の位置を選択 し 、 択 し た発光 占、、 の位置 を 記 付帯 子 ( 1 1 a 1 1 b 1 1 c ) の位置情報 と き 識 する 手段 を備えた と を特徴 とする δ冃求項 3 9 記載の実 世界ォブンェ ク h 口心 装 ヽ A means for selecting the position of the luminous pattern, and identifying the position of the selected luminous pattern with the positional information of the attachment (11a1 1b1 1c).冃 冃 項 実 3 実 世界 世界 世界 世界
4 2 . 刖 Si3付帯素子 ( 1 1 a 1 1 b 1 1 c ) か ら 、 前記発光指示命令 に応答 して前記撮像手段 ( 2 2 ( 1 04 2. 撮 像 In response to the light emission instruction command from the Si3 auxiliary element (11 a 1 1 b 1 1 c), the imaging means (22 (1 0
3 ) ) の フ レ ーム 周期 に 同期 し て前記 光が行われて い る 際 に、 前記認識手段は、 前記付帯素子の発光持続時間 を 刖 撮像手段 ( 2 2 ( 1 0 3 ) ) の 1 フ レー ム 内お よ び該撮 像手段の 1 フ レーム 内で あ り 、 かつ前記撮像手段 ( 2 2 ( 1 0 3 ) ) の シ ャ ッ タ ーが 開放 さ れて い る 時間 内 の 内 の何れか一方 と して設定 し、 前記撮像手段 ( 2 2 ( 1 03) When the light is being synchronized in synchronization with the frame period of)), The recognition means sets the light emission duration of the incidental element within one frame of the imaging means (22 (103)) and within one frame of the imaging means, and Means (22 (10 3)) is set as one of the time periods during which the shutter is open, and the imaging means (22 (10 3)) is set.
3 ) ) の各 フ レーム 単位 の フ レ ー ム画像信号 に り 刖 PC 付 子 ( 1 1 a 1 1 b , 1 1 c ) の 光位 を 続 的 に特定する 手段を備えた し と を特徵 と する 求項 3 8 乃至 4 1 の 内 の何れか 1 項に記載の実世界ォブジ ク 卜 口'、 装 3)) means for continuously identifying the light position of the PC tag (11a11b, 11c) based on the frame image signal of each frame unit of the above). The real-world object mouth ', the package according to any one of claims 38 to 41
4 3 刖記付帯素子 ( 1 1 a 1 1 b 1 1 c ) の発 光 子は 、 所定の周期で繰 り 返 し発光する機能お びラ ン ダムな長 さ のガ一 時間の後繰 Ό 返 し発光する 機能の 内の何れか 方の 能 を備え 、 刖記何れか 方の 能に よ り 発光 し た発光点 に 関する 情報を前記位置情報 と し て 出 力 し て お り 、 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) は、 前記予め割 り 当 て ら れた識別情報 を前記発光に 同期 して送信 してお り 、 4 3 帯 The luminous element of the ancillary element (1 1 a 1 1 b 1 1 c) has a function of emitting light repeatedly at a predetermined cycle and a random length of 1 hour. It has one of the functions of returning light emission, and outputs information on the light emitting point that has emitted light by any of the above functions as the positional information, and outputs the information. The element (11a, lib, 11c) transmits the pre-assigned identification information in synchronization with the light emission,
前記受信手段は、 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) の発光 を撮像手段 ( 2 2 ( 1 0 3 ) ) で撮像す る こ と に よ り 前記発光点の位置を表す位置情報を取得 し 、 かつ 前記発光に 同期 して送信 さ れる 前記識別情報 を受信 する 手段を備え、  The receiving means captures the light emission of the incidental element (11a, lib, 11c) by the imaging means (22 (103)), and indicates a position indicating the position of the light-emitting point. Means for acquiring information, and receiving the identification information transmitted in synchronization with the light emission,
前記認識手段は、 取得 さ れた前記発光点の位置情報 を 前記 別 '1'青報で特定さ れる 実世界ォブン ク 卜 ( 〇 a o b ο c ) の位置 と して 心識す る手段 を備えた と を 特徴 と す る 求項 3 8 記載の実世界ォブン X ク 卜 装 β The recognizing means converts the acquired position information of the light emitting point into Claim 38. The real world object according to claim 38, further comprising means for recognizing the position of the real world object (〇 aob ο c) specified by the separate '1' blue report. X cut equipment β
4 4 - 刖記付帯素子 ( 1 1 a 1 1 b 1 1 c ) を特 定す る 識別情報 を含む発光指示命令を送信する 手段 を さ ら に備え 4 4-手段 There is further provided a means for transmitting a light emission instruction command including identification information for specifying the ancillary element (1 1 a 1 1 b 1 1 c).
記送信手段 ( 2 1 ) に基づ < 発光指示命 が前記付 素子 ( 1 1 a 1 1 b 1 1 c ) に よ り 受信 さ れ 該 発光指示 '叩令に含まれる 識別情報が自 付帯素子に割 り 当 て ら れた識別情報 に 致す る 場合 に該付帯素子の 刖記発 光素子が刖記発光指示命令 に応答 し て所定時間ね よ び所 定周期で繰 り 返 し発光 し た際に 刖記受信手段は 記付帯素子の発光 を撮像手段 ( 2 Based on the transmitting means (21), the light emission instruction is received by the attached element (11a1 1b1 1c), and the identification information included in the light emission instruction is used as an accessory element. The light emitting element of the incidental element repeatedly emits light for a predetermined time and at a predetermined period in response to the light emitting instruction command when the identification information assigned to the light emitting element is matched. At this time, the receiving means captures the light emission of the attached element by the imaging means (2
2 ( 1 0 3 ) ) で撮 ί象 'す る と に よ り 前記発光ハ占、ヽの位置 を表す位置情報 を取得する 手段 を備え 2 (10 3)) to obtain position information indicating the position of the light-emitting area and the position of the light by capturing the image.
前記口' 識手段は 取得 さ れた前記発光ハ占、ヽの位置情報 を  The mouth recognition means transmits the acquired position information of the light emission occupation and ヽ.
 ,
刖記識別 m報で特定 さ れる 実世界ォブン ク 卜 ( o a識別 Real world object (o a
O b 〇 c ) の位置 と し てき 識する 手段 を備えた ( _ と を O b 〇 c) with a means to identify the position of (_ and
 ,
特徴 と する 求項 3 8 記 の 世界ォブン X ク 卜 識衣 置。 The World of X-Cut Identifier as defined in claim 38.
4 5 . 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) か 前記発光指示命令 に応答 し て前記撮像手段の フ レーム 期 に 同期 し て前記発光が行われてい る 際に、 m記認識手段は、 前記付帯素子 ( 1 1 a , 1 1 b , 145. The frame of the image pickup means in response to the light emitting instruction command or the incidental device (11a, lib, 11c). When the light emission is being performed in synchronization with the period, the recognizing means of the “m” indicates that the additional element (11a, 11b, 1)
1 c ) の 発 光 持続 時 間 を 前 記 撮 像 手 段 ( 2 2 ( 1 0The light emission duration of 1 c) is
3 ) ) の 1 フ レー ム 内 と し て設定 し 、 前記撮像手段 ( 2 2 ( 1 0 3 ) ) の各 フ レー ム単位の フ レ ー ム画像信号 に よ り 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) の発光位 置を連続的 に特定する 手段を備え た こ と を特徵 と す る 求項 4 4 記載の実世界オブジェ ク ト 認識装 ia 3)), and is set within one frame of the auxiliary element (11a) by the frame image signal of each frame unit of the imaging means (22 (103)). , lib, 11c), characterized in that it comprises means for continuously identifying the light emission position of the real-world object recognition device ia according to claim 44.
4 6 実世界のォブン ェ ク h ( 0 a O b o c ) に 関 する実世界ォブジェ ク 卜 情報 をサィ バ 世界を構成 す る ため の実世界ォブン ェ ク k 1 口 ' 識装置で め Ό て 、 刖記実世界ォブン X ク 卜 ( O a 〇 b 〇 C ) に付 w さ れ 、 一 思 の識別情報が割 り 当 て ら れた付 素子 ( 1 1 a 1 1 b , 1 1 c ) カゝ ら 発せ ら れた 記識別情報 び該付帯素子 ( 1 1 a , 1 1 b , 1 1 C ) の位置 を表す 位置情報 を受信する 手段 と 、 4 6 Real world object information about real world object h (0aO boc) is stored in a real world object k1 unit for constructing a server world.付 Attached elements (11a11b, 11c) attached to the real world X-cut (Oa〇b〇C) and assigned unique identification information Means for receiving the identification information issued by the user and position information indicating the positions of the attached elements (11a, 11b, 11C);
記付帯 子 ( 1 1 a , 1 1 b 1 1 C ) が付帯さ れ て い る 実世界ォブジ ェ ク 卜 の画像 を取得する 手段 ( 3 0 A means (30) for acquiring an image of a real world object to which a note (11a, 11b11C) is attached.
( 1 0 3 b ) ) と 、 (1 0 3 b)) and,
受信 し た 刖記付帯 子 ( 1 1 a 1 1 b 1 1 C ) の 識別情報お よ び位置情報を 刖記取得手段 ( 3 0 ( 1 0 3 b ) ) こ よ 1り 取得 さ :れた実世界ォ ブン ク h ( o a , 0 b o c ) の画像に 関連付ける 手段 ( 4 7 ) と 、  The identification information and the position information of the received recording accessory (11a11b11C) are acquired by the recording acquisition means (30 (103b)). Means (47) for associating with the image of the real world
関連付け ら れた 刖記付帯素子 ( 1 1 a 1 1 b 1 1 C ) の識別情報、 位置情報お よ び前記実世界オブジ ェ ク ト の画像 に基づいて該付帯素子 ( 1 1 a l i b , 1 1 c ) に対応す る 実世界オ ブ ジ ェ ク ト ( 〇 a 〇 b O c ) の位置を特定 して認識する 手段 と 、 Associated associated element (1 1 a 1 1 b 1 1 C), based on the identification information, the position information, and the image of the real world object, the real world object (〇a) corresponding to the attached element (11 alib, 11 c). 〇 b O c)
を備え た こ と を特徵 と する 実世界オブジ ェ ク ト 認識装 置。  A real-world object recognition device that features:
4 7 • 刖記付帯 子 ( 1 1 a , l i b , 1 1 c ) は 発光指示命令に応答 して発光 し 、 そ の発光点に関す る 情 報を 刖記位置情報 と して出力する 発光素子を備えて Ό 刖記付帯素子 ( 1 l a , l i b , 1 1 c ) を特定する 別情報 を含む発光指示命令 を送信する 手段 ( 2 1 ) を さ ら に備え 4 7 • Light emitting element (11a, lib, 11c) emits light in response to a light emission instruction command, and outputs information on the light emitting point as the recording position information. And means (21) for transmitting a light emission instruction command including other information for specifying the incidental element (1 la, lib, 11 c).
記送信手段 ( 2 1 ) に基づ く 発光指示命 が前記付 子 ( 1 1 a 1 1 b , 1 1 c ) に よ り 受信さ れ 該 発光指示命令に含まれる 識別情報が 自 付帯 子に割 Ό 当 て ら れた 別情報 に一致する 場合 に該付帯素子か ら 前記 発光素子 を介 して発光が発せ ら れた場合に  The light emitting instruction based on the transmitting means (21) is received by the tag (11a11b, 11c), and the identification information included in the light emitting instruction is added to the accessory. When light emission is emitted from the incidental element via the light emitting element when the assigned information matches the different information.
前記受信手段は 前記付帯素子 ( 1 1 a 1 1 b 1 The receiving means may include the auxiliary element (1 1 a 1 1 b 1
1 c ) の発光を前記実世界オブジ ェ ク ト ( o a O b1c) the luminescence of the real-world object (oaOb
〇 c ) を含む所定の撮像視野領域を有す る 第 1 の撮像手 段 ( 2 2 ( 1 0 3 a ) ) を 用 い て撮像す る と に よ 刖 記発光 占 の位置 を表す位置情報 を取得する手段を備え 刖記画像取得手段 ( 3 0 ( 1 0 3 b ) ) は 刖記第 1 の撮像手段 と略同 の撮像視野領域 を有す る 2 の撮像 手段 ( 3 0 ( 1 0 3 b ) ) を用 い て前 ^ 実世界ォ ブ ン ク 卜 の画像を撮像する 手段 を備えた こ と を特徵 と す る 求 IS 4 6 記載の実世界ォブンェ ク ト 認 置 情報 Position information indicating the position of the light-emission occupancy is obtained by imaging using the first imaging means (22 (103 a)) having a predetermined imaging visual field area including c). The image acquisition means (30 (103b)) has two image pickup areas having substantially the same imaging field of view as the first image pickup means. The real world object described in IS 46, characterized in that the real world object is provided with a means for capturing an image of the real world object using the means (30 (103b)). G Recognition
4 8 - 刖記関連付け ら れた前記付帯素子 ( 1 1 a 14 8-The incidental element (11 a 1
1 b 1 1 c ) の識別情報、 位置情報お よび 記実世界 ォブジ X ク 卜 ( O a , O b , O c ) の画像 を所定の画像 ンテ ン ッ枠内 の画像コ ンテ ンツ と して表示する 手段 を 備え 1b 1 1c) The identification information, location information and the image of the real world object Xa (Oa, Ob, Oc) are used as the image content in the predetermined image content frame. Equipped with means for displaying
記第 1 お よ び第 2 の撮像手段 ( 2 2 ( 1 ■ C ) 3 a ) First and second imaging means (22 (1 ■ C) 3 a)
3 0 ( 1 0 3 b ) ) の撮像視野領域の 内 の少な < と も 方は 刖記画像コ ンテ ンツ枠よ り も大き く な てお り 刖記画像 ンテ ン ッ枠外に存在す る他の実世界ォブン30 (10 3 b)) of the imaging field of view is slightly larger than the above-mentioned image content frame and may be outside the above-mentioned image content frame. The real world of
X ク 卜 ( o a O b , 0 c ) の識別情報、 発光 占位置情 報お よ び発光時点 を含む状態 を脇待機状態 と し て 刖記第The state including the identification information of the X cut (oaob, 0c), the occupancy position information and the time of emission is defined as the side standby state.
1 お よ び第 2 の撮像手段 ( 2 2 ( 1 0 3 a ) 3 0 ( 11 and 2nd imaging means (22 (103 a) 30 (1
0 3 b ) ) の 内 の少な く と も 一方 の撮像手段 に よ Ό 得 ら れた情報に基づいて把握する 手段 と 、 0 3 b) means for grasping based on the information obtained by at least one of the imaging means;
の把 し た前記他の実世界オブジェ ク ト ( 〇 a o b 0 C ) の識別情報、 発光点位置情報お よ び発光時 占 を 6忍 β義する 手段 と 、  Means for identifying the identification information of the other real world object (〇 a ob 0 C), the light emitting point position information, and the light occupancy by the light source.
を さ ら に備えた こ と を特徴 とす る 請求項 4 7 記載の実 世界ォブジ ェ ク ト '!^ nB^ ¾t li 4 9 . 前記付帯素子 ( 1 1 a l i b , 1 1 c ) は、 当該付 子 ( 1 1 a 1 1 b 1 1 c ) を付 する 実 世界ォブン X ク 卜 ( O a , 0 b , 0 c ) の状 お よ び該 実世界ォブン X ク h ( 0 a 0 b , 〇 C ) の近傍の状態 の 内 の少な < と 方を感知 し の感知 し た実世界ォ ブン X ク ( 0 a 0 b 〇 c ) に 関す る セ ン シ ン グ情 報を送信する感知手段 ( 1 7 ) を有 してお り The real-world object '! ^ NB ^ ¾t li 49 according to claim 47, further comprising: the auxiliary element (11 alib, 11 c) The state of the real world X X (O a, 0 b, 0 c) to which the tag (1 1 a 1 1 b 1 1 c) is attached and the real world X X h (0 a 0 b) , 〇 C) that transmits sensing information about the real world object X (0a0b 〇 c) Have means (17)
刖記感知手段 ( 1 7 ) に よ Ό 感知 さ れた 刖記セ ン シ ン グ情報 を受信す る手段 ( 4 - 刖 Means for receiving the sensing information detected by the recording sensing means (17) (4-
1 ) を備 え、 1)
m記 識手段は 受信 し た iu記付帯素子 ( 1 1 a 1 m means of identification is the received iu attached element (1 1 a 1
1 b 1 1 C ) の識別情報お よび位置情報 に 刖記セ ン シ ング情報 を 関連付け 関連付けた情報を前記実世界ォブ ン X ク 卜 情報 と して 。心識す る 手段 ( 4 7 ) を備えた こ と を特徴 とす る 請求項 3 7 乃 4 5 の 内 の何れか 1 項記載 の実世界ォブンェ ク 卜 き 識装置。 1b 11 1) The information obtained by associating the sensing information with the identification information and the position information of C) is defined as the real world X-cut information. The real-world object recognition device according to any one of claims 37 to 45, characterized by comprising means (47) for recognizing the real world.
5 0 刖記付帯 子 ( 1 1 a , l i b , 1 1 c ) を特 定する 識別情報 を含むセ ン シ ン グ指示命令 を送信す る 手 段 ( 4 0 ) を さ ら に備え 50 0 刖 A means (40) for transmitting a sensing instruction command including identification information for specifying the tag (11a, lib, 11c) is further provided.
刖記セ ン シ ン グ指示命令送信手段 ( 4 0 ) に づ く セ ン シ ン グ指示命令が刖記付帯素子 ( 1 1 a , 1 1 b 1 セ The sensing instruction command based on the sensing instruction command transmission means (40) is used to send the sensing element (11 a, 11 b 1
1 c ) に よ り 受信 さ れ 該セ ン シ ン グ指示命令 に含 まれ る識別情報が 自 付帯素子に割 り 当 て ら れた識別情報 に 致す る 場 に該付堂素子か ら 刖記感知手段 ( 1 7 ) を介 し て感知 さ れたセ ン シ ン グ情報が 信 さ れてさた場合に 刖記セ ン シ ノ グ情報受信手段 ( 4 1 ) は 送信 さ れて さ た m記付帯 子 ( 1 1 a , 1 1 b , 1 1 c ) のセ ン ン ン グ 4由 1c) when the identification information received in the sensing instruction command and included in the sensing instruction command matches the identification information assigned to the self-attached element, When the sensing information sensed via the sensing means (17) is transmitted, the sensing information receiving means (41) transmits the sensing information. The sentence of the attached notation (11a, 11b, 11c)
m報 を受信する 手段を備えた と を特徴 とする 求 項 4 9 記載の実世界ォブン ェ ク 卜 ii  Claim 49. The real world object ii according to claim 49, characterized by comprising means for receiving the m report.
5 1 刖記セ ン ン ング情報は 刖記付帯素子 ( 1 1 a5 1 The sensing information is written in the attached element (1 1 a
1 1 b 1 1 c ) に割 り て ら れた 別情報 と 共 に送信 さ れてお Ό 刖 セ ン シ ン グ情報受信手段 ( 4 1 ) は 刖記識別情報を含むセ ン シ ン グ情報 を受信する 手段 を備 え た と を特徴 とする δ冃求項 5 0 記載の実世界ォブン X ク 卜 。心 装 1 1 b 1 1 c) is transmitted together with the separate information. Ό The sensing information receiving means (41) is a sensing device including the identification information. 50. A real-world X-box according to claim 50, further comprising means for receiving information. Attire
5 2 • IU記付 素子 ( 1 1 a 1 1 b 1 1 c ) は 当該付 子 ( 1 1 a 1 1 b , 1 1 c ) を付帯する 実 世界ォブン X ク ( 〇 a 〇 b 〇 c ) の状台 お よ び該 実世界ォ プジェ ク 卜 ( 〇 a , 〇 b O c ) の近傍の状能 の 内 の少な ぐ と も 方を感知 し の感知 し た実世界ォ ブン X ク 卜 に関す るセ ン シ ン グ情報 を送信する感知手段5 2 • IU marked element (1 1 a 1 1 b 1 1 c) is a real world object X (〇 a 〇 b 〇 c) with the corresponding element (11 a 1 1 b, 11 c) And the real world object X, which senses and detects at least one of the abilities in the vicinity of the real world object (〇a, 〇bOc). Sensing means for transmitting sensing information
( 1 7 ) を有 し てお り (1 7)
刖記感知手段 ( 1 7 ) に よ り 感知 さ れた 刖記セ ン シ ン グ情報 を受信する 手段 ( 4 1 ) を備え  A means (41) for receiving the recording sensing information detected by the recording sensing means (17);
刖記画像関連付 け手段 ( 4 7 ) は 刖記受信 し た 刖記 付帯素子 ( Ο a O b O c ) の識別情報 位置情報お よ びセ ン シ ン グ情報を 刖記取得手段 ( 3 0 ( 1 0 3 b ) に よ Ό 取 さ れた実世界ォブジ X ク ( 〇 a 0 b O c ) の画像 に関 付ける 手段 を備え 刖記 手段は 関連付け ら れた 刖記付帯素子 ( 1 1 a 1 1 b 1 1 c ) の識別情報 位置情報、 セ ン シ ン グ情報お よ び刖記実世界才ブジ ク ( 0 a , 0 b 〇 c ) の画像に基づ < 実世界ォブン X ク ト 情報を認識す る 手段 を備えた と を特徴 とする 求項 4 6 乃至 4 8 の 内 の何れか 1 項記載の実世界才ブジ X ク 卜 RS¾ lA. The image image associating means (47) is a means for acquiring the identification information of the received incidental element (素 子 aObOc), the positional information and the sensing information, and 0 (1 0 3 b) 手段 Equipped with a means for relating the image of the real world object X (〇 a 0 b O c) The recording means is the identification information of the associated incidental element (11a1 1b11c), the location information, the sensing information, and the real-world talent (0a, 0a). (b) a means for recognizing real-world X-act information based on the image of (c), wherein the real-world gifted business object according to any one of claims 46 to 48 is provided. X cut RS¾lA.
5 3 記付帯 子 ( 1 1 a 1 1 b 1 1 c ) を特 定する識別情報 を含むセ ン シ ング指示命令 を送信す る 手 段 ( 4 0 ) を さ ら に備え 5 3 A means (40) for transmitting a sensing instruction command including identification information for specifying the attached band (11a11b11c) is further provided.
前記セ ン シ ン グ指示命 信手段 ( 4 0 ) に基づ < セ ン シ ン グ指示命令が 記付 素子 ( 1 1 a J 1 1 b 1 Based on the sensing instruction notifying means (40), a <sensing instruction command is applied to the marked element (1 1 a J 1 1 b 1
1 c ) に よ Ό 信 さ れ 該セ ン シ ン グ指示命令に含 ま れ る識別情報が 白 付帯 子に割 当 て ら れた識別情報 に 致する 場 Π に該付 子か ら 刖記感知手段 ( 1 7 ) を介 し て感知 さ れたセ ン シ ン グ情報が送信 さ れて さ た場 に 刖記セ ン シ ン グ情報受信手段 ( 4 1 ) は 送信 さ れて さ た 記付帯素子 ( 1 1 a 1 1 b 1 1 c ) のセ ン シ ン グ情報 を受信す る 手段 を備えた と を特徴 とす る Θ冃求 項 5 2 記 の 世界ォプン X ク 卜 口心 装置 1c) When the identification information transmitted in the sensing instruction command and included in the sensing instruction instruction matches the identification information assigned to the white band, the data is written from the band. The sensing information receiving means (41) has been transmitted when the sensing information sensed via the sensing means (17) has been transmitted. Claim 52. The method of claim 52, further comprising a means for receiving sensing information of the attached element (1 1a 1 1b 1 1c). Equipment
5 4 - 記セ ン シ ン グ情報は 記付帯 子 ( 1 1 a5 4-Sensing information is in the attached band (1 1 a
1 1 b 1 1 c ) に割 当 て ら れた識別情報 と共 に送信 さ れてお り 刖記セ ン シ ン グ情報受信手段 ( 4 1 ) は 、 1 1 b 1 1 c) is transmitted together with the identification information assigned thereto, and the sensing information receiving means (41)
刖記 別情報 を含むセ ン シ ン グ情報 を受信する 手段 を備 と を特徴 とする請求項 5 2 記載の実世界オ ブジ ェ 手段 A means is provided for receiving sensing information including other information. A real world object according to claim 52, characterized in that:
5 5 刖記付. '帯 子 ( 1 1 a 1 1 b 1 1 c ) は 所定の動作 を実行する作用 子 ( 1 6 a ) を有 し て Ό 記付帯 、子 ( 1 1 a 1 1 b 1 1 C ) を特定す る 識別情報 を含む作用 子作動命令を送信する 手段 と 5 5 付 Annotation. 帯 ((1 1 a 1 1 b 1 1 c) has an operator (16 a) that performs a predetermined operation. Means for transmitting an operator actuation command including identification information for identifying 1 1 C) and
刖記作用 素子 ( 1 6 a ) に よ り BJ記作用 素子作動命 に応 じて実行さ れた所定の動作に 関する 情報が送信 さ れ て さた際に そ の動作に関す る動作関連情報 を受信する 手段と を さ ら に備え  関 連 Operation-related information on the operation when the information on the predetermined operation executed in response to the BJ-operation element operation instruction is transmitted by the operation element (16a) And means for receiving the
刖記口 識手段 は 受信 し た 記付帯 子 ( 1 1 a 1 口 The recording means is the received attachment (1 1 a 1
1 b 1 1 c ) の識別情報お よび位置情報 に 刖記動作関 連情報 を 関連付 け 関連付けた情報 を 実世界ォブン ク 卜 情報 と し てき 識する 手段 ( 4 7 ) を備えた と を 特徴 とす る n求項 3 7 乃至 4 5 の 内 の何れか 1 項記載の 実世界ォブン X ク 卜 装置 1b 1 1c) is associated with the operation-related information to the identification information and the position information, and means (47) for identifying and associating the associated information as real world job information is provided. The real-world X-cut device according to any one of claims 37 to 45.
5 6 記作用素子作 命令送信手段 ( 4 5 ) に づ5 6 Operation element operation Command transmission means (45)
< 作用素子動作命令が刖記付帯 子 ( 1 1 a 1 1 b<The operation element operation instruction is indicated by the 刖 mark (1 1 a 1 1 b
1 1 c ) に よ り 受信 さ れ 該作用 素子動作命令に含まれ る 識別情報が 付帯素子に割 Ό 当 て ら れた識別情報 に 致する 場 α に該付 子か ら 刖記作用素子作動命令 に応 じて実行 さ れた所定の動作に 関する 情報が送信さ れてさ た場合 に、 前記 作関連 報受信手段 ( 4 6 ) は、 送信さ れて き た刖記付帯 、'子の動作関連情報 を受信する手 を備え た こ と を特徵 と する 冃求項 5 5 記 の 世界ォブジ X ク 卜 認識装置。 11c) when the identification information received in the operation element operation command and included in the operation element operation command matches the identification information assigned to the incidental element, the operation element activation operation from the element is performed at α. If information is sent about a given action performed in response to the instruction, The world object according to claim 55, wherein the operation-related information receiving means (46) is characterized in that the operation-related information receiving means (46) is provided with a means for receiving the transmitted information attached thereto and the operation-related information of the child. X-cut recognition device.
-ヽ --ヽ-
5 7 nu記 作関 情報は 、 記付帯 子 ( 1 1 a ,5 7 The nu notation information is written in the tag (11 a,
1 1 b , Ί 1 c ) に割 当 て ら れた識別情報 と ヽ に送信 1 1 b, identification information assigned to Ί 1 c) and transmitted to ヽ
 ,
さ れて り 、 記動作関連情報受信手 ( 4 6 ) は 、 刖 記識別情報 を含む動作関連情報 を受信する 手段を備 え た In addition, the operation-related information receiver (46) has a means for receiving operation-related information including the identification information.
、❖  , ❖
し と を特徵 と する sn求項 5 5 記載の実世界ォブン 工 ク 卜 認識装置。 A real-world object recognition apparatus according to claim 55, further comprising:
5 8 . 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) は、 所定の動作 を実行す る作用 素子 ( 1 6 a ) を有 してお り 、 前記付帯素子 ( 1 1 a , l i b , 1 1 c ) を特定す る 識別情報 を 含む作用 素子作動命令 を 送信す る 手段 ( 4 5 ) と 、 58. The ancillary element (11a, lib, 11c) has an action element (16a) for performing a predetermined operation, and the ancillary element (11a, lib, 11c) has a function element for performing a predetermined operation. Means (45) for transmitting an action element activation command including identification information for identifying 1 1 c);
前記作用 素子 ( 1 6 a ) に よ り 前記作用 素子作動命令 に応 じて実行 さ れた所定の動作に 関する 情報が送信 さ れ て きた際 に 、 その動作に関する 動作関連情報 を受信する 手段 ( 4 6 ) と を さ ら に備え、  Means for receiving operation-related information on the operation when information on a predetermined operation executed according to the operation element operation command is transmitted from the operation element (16a). 4 6) and
前記画像関連付け手段 ( 4 7 ) は、 前記受信 し た前記 付帯素子 ( 1 1 a , l i b , 1 1 c ) の識別情報、 位置 情報お よ び動作関連情報を前記取得手段 ( 3 0 ( 1 0 3 b ) ) に よ り 取得 さ れた実世界オ ブジ ェ ク ト ( O a , O b o c ) の画像に関連付け る 手段 を備え、 m記認識手段は、 関連付け ら れた前記付帯素子 ( 1 1 a 1 l b , 1 1 c ) の識別情報、 位置情報、 動作関連 情報お よ び前記実世界 オ ブ ジ ェ ク ト ( 〇 a , 0 b 0 C ) の画像に基づ く 実世界オブジ ェ ク 卜 情報を 識す る 手段 を備えた こ と を特徴 とする請求項 4 6 乃至 4 8 の 内 の何れか 1 項記載の実世界オブジェ ク k ¾fe ¾ The image associating means (47) obtains the identification information, the position information, and the operation-related information of the attached element (11a, lib, 11c) received by the obtaining means (30 (10) 3b) The real world objects (Oa, O means for associating the associated element (11a1lb, 11c) with the identification information, position information, operation-related information, and information of the associated element (11a1lb, 11c). 47. A system according to claim 46, further comprising means for recognizing real world object information based on an image of the world object (〇a, 0b0C). Real world object k ¾fe ¾ as described in any one of
1  1
,
5 9 目 υ記作用 子 作命 送信手段 ( 4 5 ) に基づ < 作用 素子動作命 が刖記付帯 子 ( 1 1 a 1 1 b , 5 9 υ 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用 作用
1 1 C ) よ 受信 さ れ 該作用素子動作命 に含まれ る 識別情報が 白 付帯 子に割 当 て ら れた識別情報 に一致 する □ に該付帯 子か ら 刖記作用 素子作動命令 に応 じ て実行さ れた所定の動作 に 関する 情報が送信さ れて さ た 場 □ に 11 C) The identification information received and included in the operation element operation instruction matches the identification information assigned to the white accessory. □ In response to the operation element operation command from the accessory. When information about a given action performed in the past has been sent □
 ,
記動作関連情報受信手段 ( 4 6 ) は 送信さ れて き The operation-related information receiving means (46) is transmitted.
,
た 記付帯素子 ( 1 1 a 1 1 b , 1 1 c ) の動作関連 情報 を受信する手段 を備えた と を特徵 とする 求項 5 、ヽ Claim 5, characterized in that it is provided with means for receiving operation-related information of the auxiliary elements (11a11b, 11c).
8 記載の実世界才ブン X ク 卜 。心 装置  8 Real world talent X X cut. Heart device
6 0 . 前記動作関連情報は、 前記付帯素子 ( 1 1 a ,60. The operation-related information includes the auxiliary element (11a,
1 1 b 1 1 c ) に割 当 て ら れた 別情報 と丑ヽ に送信 さ れてお 記動作関連情報受信手段 ( 4 6 ) は HU 記識別情報 を含む動作関連情報 を受信する 手段を備え た こ と を特徵 と する 求項 5 8 記載の実世界ォブジ ェ ク 卜 認識装置。 The operation-related information receiving means (46) transmitted to the user and the separate information allocated to 11b1 1c) is a means for receiving the operation-related information including the HU identification information. Claim 58. A real-world object according to claim 58. Recognition device.
6 1 実世界のォブン X ク 卜 ( 〇 a 〇 b 〇 c ) に 付帯さ れ の識別情報 を有 し 、 刖記実世界に対応す る サィ 世界を構成する コ ン ピ ュ 夕 シス テム ( 2 ) と 線通信可能な付帯 子 ( 1 1 a 1 1 b 1 1 c ) であ つ て 6 1 A computer system (2) which has identification information attached to the X-Cut (〇a〇b〇c) of the real world and composes the SA world corresponding to the real world ) And an accessory (11a11b111c) capable of line communication with
刖記識別情報 よ び該付 nr 糸子 ( 1 1 a , 1 1 b 1 識別 Identification information and the attached nr thread (11a, 11b1
1 C ) の 1 L置を表す位匿情報 を 'J 己 ン ピ ュ 夕 シス テ ム ( 2 ) に向 けて送信する 达信手段 ( 1 5 ) と 、 A communication means (15) for transmitting the location information representing the 1 L position of 1 C) to the 'J's own computer system (2);
,、  ,,
刖記 ン ピ ュ ―夕 シス テム ( 2 ) か ら の動作指令に応 じて前記実世界ォブン X ク b ( 〇 a 0 b , 0 c ) の状 お よ び該実世界ォブジ X ク 卜 ( 〇 a O b o c ) の 近傍の状態の 内 の少な < と も 方 を感知 し 、 こ の感知 し た実世界ォブジ X ク 卜 に 関する セ ン シ ン グ情報を 刖記 ン ピ ュ 夕 シ ス テ ム ( 2 ) に 向 けて 送 '信す る 感知 手段 Note: The state of the real world Xb b (〇a0b, 0c) and the real world Xb X ( O a O boc) is sensed, and the sensing information about the sensed real world object X is recorded. Sensing means for transmitting to the system (2)
( 1 7 ) と 、 (1 7) and
刖記 コ ン ピ ュ 夕 シス テム ( 2 ) か ら の動作指令 に応 じ て所定の動作を実行 し その動作 に関連する 動作関連 情報 を m記 コ ン ピ a. 一 夕 シス テム ( 2 ) に向 けて送信す る ft作手段 ( 1 6 ) と  所 定 Executes a predetermined operation in response to an operation command from the computer system (2), and stores operation-related information related to the operation in a computer-based system. A. Ft work means (16) sent to
を備えた こ と を特徴 とする 付帯素子  Ancillary element characterized by having
PCT/JP2003/015019 2002-11-25 2003-11-25 Real world object recognition method and device, and attached device WO2004048887A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003302450A AU2003302450A1 (en) 2002-11-25 2003-11-25 Real world object recognition method and device, and attached device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-340965 2002-11-25
JP2002340965 2002-11-25

Publications (1)

Publication Number Publication Date
WO2004048887A1 true WO2004048887A1 (en) 2004-06-10

Family

ID=32375834

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/015019 WO2004048887A1 (en) 2002-11-25 2003-11-25 Real world object recognition method and device, and attached device

Country Status (2)

Country Link
AU (1) AU2003302450A1 (en)
WO (1) WO2004048887A1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6345610A (en) * 1985-08-30 1988-02-26 テキサス インスツルメンツインコ−ポレイテツド Utilization of delay absolute position data for guidance and operation for moving vehicle controller
JPH01112490A (en) * 1987-10-27 1989-05-01 Kenro Motoda Signal transmitting system for variable body and system for controlling position detection and operation
DE4101156A1 (en) * 1991-01-14 1992-07-16 Audiocinema Electronic Und Med Position location and tracking of objects - using pulsed outputs from infrared transmitters detected by image processing system
JPH0755429A (en) * 1993-08-17 1995-03-03 Toshiba Corp Position recognition system
JPH0886634A (en) * 1994-09-14 1996-04-02 Nissan Motor Co Ltd Surface defect inspecting device
JPH0933646A (en) * 1995-07-25 1997-02-07 Oki Electric Ind Co Ltd Tag
JPH1091791A (en) * 1996-06-14 1998-04-10 Xerox Corp Virtual modeling system and optical spot positioning system
JPH1096605A (en) * 1996-09-24 1998-04-14 Komatsu Ltd Position measuring method and device with image processing
JP2000020700A (en) * 1998-07-07 2000-01-21 Sony Corp Image data processor, method therefor and supplying medium
JP2000069459A (en) * 1998-08-25 2000-03-03 Matsushita Electric Ind Co Ltd Monitor system
JP2001304815A (en) * 2000-04-24 2001-10-31 Mitsubishi Electric Corp Position measuring system and position measuring method
JP2001320702A (en) * 2000-05-12 2001-11-16 Toshiba Corp Video information processor and transmitter
JP2002230675A (en) * 2001-01-31 2002-08-16 Tokyo Electric Power Co Inc:The Abnormality inspection service method using tag equipped with sensor and system therefor

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6345610A (en) * 1985-08-30 1988-02-26 テキサス インスツルメンツインコ−ポレイテツド Utilization of delay absolute position data for guidance and operation for moving vehicle controller
JPH01112490A (en) * 1987-10-27 1989-05-01 Kenro Motoda Signal transmitting system for variable body and system for controlling position detection and operation
DE4101156A1 (en) * 1991-01-14 1992-07-16 Audiocinema Electronic Und Med Position location and tracking of objects - using pulsed outputs from infrared transmitters detected by image processing system
JPH0755429A (en) * 1993-08-17 1995-03-03 Toshiba Corp Position recognition system
JPH0886634A (en) * 1994-09-14 1996-04-02 Nissan Motor Co Ltd Surface defect inspecting device
JPH0933646A (en) * 1995-07-25 1997-02-07 Oki Electric Ind Co Ltd Tag
JPH1091791A (en) * 1996-06-14 1998-04-10 Xerox Corp Virtual modeling system and optical spot positioning system
JPH1096605A (en) * 1996-09-24 1998-04-14 Komatsu Ltd Position measuring method and device with image processing
JP2000020700A (en) * 1998-07-07 2000-01-21 Sony Corp Image data processor, method therefor and supplying medium
JP2000069459A (en) * 1998-08-25 2000-03-03 Matsushita Electric Ind Co Ltd Monitor system
JP2001304815A (en) * 2000-04-24 2001-10-31 Mitsubishi Electric Corp Position measuring system and position measuring method
JP2001320702A (en) * 2000-05-12 2001-11-16 Toshiba Corp Video information processor and transmitter
JP2002230675A (en) * 2001-01-31 2002-08-16 Tokyo Electric Power Co Inc:The Abnormality inspection service method using tag equipped with sensor and system therefor

Also Published As

Publication number Publication date
AU2003302450A1 (en) 2004-06-18

Similar Documents

Publication Publication Date Title
US11348269B1 (en) Method and apparatus for combining data to construct a floor plan
US11449061B2 (en) Obstacle recognition method for autonomous robots
CN105378801B (en) Hologram snapshot grid
JP4423302B2 (en) Real world object recognition method and real world object recognition system
JP3927168B2 (en) Real world object recognition method and real world object recognition system
CN105376121B (en) Image triggering pairing
CN106415444B (en) gaze swipe selection
CN108984604A (en) Place map application and system
US9606992B2 (en) Personal audio/visual apparatus providing resource management
CN104871214B (en) For having the user interface of the device of augmented reality ability
JP2020529084A (en) Image processing method, equipment and storage medium
JP6240203B2 (en) Control method for displaying merchandising information on information terminal
US9390561B2 (en) Personal holographic billboard
CN105190485A (en) Mixed reality interactions
US10832017B2 (en) Tracking objects in a two dimensional space
EP3583748A1 (en) Position calibration for intelligent assistant computing device
EP2410490A2 (en) Displaying augmented reality information
CN107209950A (en) Virtual materials are automatically generated from real world material
CN106062862A (en) System and method for immersive and interactive multimedia generation
CN110352116A (en) Intellect service robot and related systems and methods
CN104169836B (en) Messaging device and method
CN112585667A (en) Intelligent platform counter display system and method
WO2018204070A1 (en) Real time object surface identification for augmented reality environments
CN108352084A (en) Object path mark for the navigation object in scene awareness apparatus environment
CN109551489A (en) A kind of control method and device of human body auxiliary robot

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase