WO2023021640A1 - 情報処理プログラム及び検知システム - Google Patents

情報処理プログラム及び検知システム Download PDF

Info

Publication number
WO2023021640A1
WO2023021640A1 PCT/JP2021/030295 JP2021030295W WO2023021640A1 WO 2023021640 A1 WO2023021640 A1 WO 2023021640A1 JP 2021030295 W JP2021030295 W JP 2021030295W WO 2023021640 A1 WO2023021640 A1 WO 2023021640A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
detection
sensor
detection sensor
processing program
Prior art date
Application number
PCT/JP2021/030295
Other languages
English (en)
French (fr)
Inventor
竜成 片岡
礼子 坂田
直紀 古畑
淳 嶋田
咲樹 松井
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2022507569A priority Critical patent/JP7098081B1/ja
Priority to PCT/JP2021/030295 priority patent/WO2023021640A1/ja
Publication of WO2023021640A1 publication Critical patent/WO2023021640A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V13/00Manufacturing, calibrating, cleaning, or repairing instruments or devices covered by groups G01V1/00 – G01V11/00
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation

Definitions

  • the technology disclosed herein relates to an information processing program and a detection system.
  • Detection sensors are used for various purposes, and there are various methods such as infrared methods and laser methods. In the field of various detection sensors, differentiation from other companies' products is being carried out in order to promote sales.
  • Patent Document 1 a technology that presents the detection area on a GUI terminal to differentiate it from other companies' products.
  • a new concept is required in the field of detection sensors.
  • the new concept achieves greater differentiation from other companies' products. This great differentiation increases the user's willingness to buy and further promotes sales.
  • the disclosed technology aims to provide a new concept in the field of detection sensors and further promote product sales.
  • An information processing program is a program that is executed by a computer that is connected to at least one detection sensor and at least one projector and that has a three-dimensional map of the environment in which the detection sensor is installed.
  • An information processing program includes a receiving unit that performs processing for the computer to receive detection range information of a detection sensor, which is three-dimensional information, and additional information about the detection sensor, and the detection range information on a map.
  • a computer on which an information processing program according to the technology disclosed herein is executed receives a command from the outside, and the projected content is edited according to this command.
  • the information processing program according to the disclosed technology Since the detection system realized by the information processing program according to the disclosed technology has the above configuration, it is possible to directly display and visualize the detection range of the invisible detection sensor in real space when necessary. In this way, the information processing program according to the technology disclosed herein provides a detection system with a new concept and contributes to sales promotion of products.
  • FIG. 1 is a functional block diagram showing functions of a detection system realized by an information processing program according to Embodiment 1.
  • FIG. FIG. 2 is a schematic diagram showing the action of the detection system realized by the information processing program according to the technology disclosed herein.
  • FIG. 2A is a schematic diagram showing the operation of the detection system in the initial state with no obstructions.
  • FIG. 2B is a schematic diagram showing the operation of the detection system when there is an obstruction.
  • FIG. 3 is a flow chart showing processing steps of the detection system implemented by the information processing program according to the first embodiment.
  • FIG. 4 is a first schematic diagram showing an application example of the detection system according to the technology disclosed herein.
  • FIG. 5 is a second schematic diagram showing an application example of the detection system according to the technology disclosed herein.
  • FIG. 1 is a functional block diagram showing functions of a detection system realized by an information processing program according to Embodiment 1.
  • FIG. 2 is a schematic diagram showing the action of the detection system realized by the information processing program according to the technology
  • FIG. 6 is a schematic diagram 3 showing an application example of the detection system according to the technology disclosed herein.
  • FIG. 7 is a schematic diagram 4 showing an application example of the detection system according to the technology disclosed herein.
  • FIG. 8 is a schematic diagram 5 showing an application example of the detection system according to the technology disclosed herein.
  • FIG. 9 is a configuration diagram showing the hardware configuration of a computer on which the information processing program according to Embodiment 1 is executed.
  • FIG. 10 is a first schematic diagram showing a mode of editing projected content.
  • FIG. 11 is a second schematic diagram showing a mode of editing projected content.
  • FIG. 12 is a schematic diagram 3 showing a mode of editing projected content.
  • FIG. 13 is a schematic diagram No. 4 showing a mode of editing projected content.
  • FIG. 14 is a reference diagram for explaining the disclosed technology.
  • a new concept provided by the detection system realized by the information processing program 200 according to the technology disclosed herein is to directly display and visualize the detection range of an invisible sensor in real space when necessary. Moreover, the visualization is performed in a way that expresses additional information about the sensor. How this concept is embodied will become clear from the description of the embodiments below.
  • FIG. 1 is a functional block diagram showing functions of a detection system realized by an information processing program 200 according to Embodiment 1.
  • an information processing program 200 according to the technology disclosed herein includes functional blocks of a reception unit 210 , a map information conversion unit 220 , a projection content conversion unit 230 , and an output unit 240 .
  • the information processing program 200 according to the first embodiment may be a program executed by a computer running an application that can virtually regard the projection target projected by the projector 30 as a touch panel.
  • This computer is connected to at least one detection sensor 10 and at least one projector 30 .
  • the detection system according to the technology disclosed herein includes a computer that executes the information processing program 200 , at least one detection sensor 10 , and at least one projector 30 .
  • the number of detection sensors 10 handled by the information processing program 200 may be one or more. Further, the detection sensor 10 may be an external sensor installed at a position separate from the computer on which the information processing program 200 is executed, or may be a sensor integrated with the computer. Furthermore, the information processing program 200 may simultaneously handle the external detection sensor 10 and the embedded detection sensor 10 .
  • a specific example of the detection sensor 10 may be a sensor typified by a pyroelectric sensor for detecting surrounding objects (hereinafter referred to as a "human sensor"), a laser displacement meter, or a camera.
  • a mode in which the detection sensor 10 is a camera will be clarified by another embodiment described later.
  • the detection sensor 10 handled by the information processing program 200 according to the technology disclosed herein may be an active sensor emitting infrared rays or the like.
  • the detection sensor 10 may be a passive sensor, which will be described later.
  • the detection sensor 10 may be a range sensor, an ultrasonic sensor, a temperature sensor, a depth sensor, a fiber sensor, or a color sensor.
  • the detection sensor 10 can be used for elevator doors, escalator entrances, escalator exits, entrance/exit management gates, automatic doors for various entrances and exits, automatic security robots, air conditioners that detect humans, and the like. can be considered.
  • the types of facilities using the detection sensor 10 may be signage in facilities, various facilities in architectural spaces, and surveillance cameras. Various facilities in the architectural space may be installed around passageways, around stairs, or at building entrances and exits.
  • the detection sensor 10 is a camera, it is conceivable that it is used in a camera system used in a television station or the like, a shooting system in a concert venue, or the like.
  • the information processing program 200 has as data a three-dimensional map of the environment in which the detection sensor 10 is installed.
  • the environment in which the detection sensor 10 is installed refers to the elevator hall.
  • a three-dimensional map is, in this case, numerical data that can reproduce the geometry inside an elevator hall.
  • the term map used here may be considered to have the same meaning as a general map.
  • a 3D map of the environment may be created using common 3D metrology techniques and methods of acquiring 3D data. Specifically, a three-dimensional map of the environment may be created using a 3D laser scanner.
  • a method of creating a three-dimensional map of a wide environment may be a method of obtaining coordinates of three-dimensional points in the environment by combining measurement values obtained by LiDAR with GPS position information.
  • a three-dimensional map of the environment may be detected based on the relative positions of the sensing sensors 10 .
  • the reception unit 210 of the function of the information processing program 200 performs processing for receiving detection range information of the detection sensor 10 .
  • the detection range information of the detection sensor 10 refers to information regarding the range in which humans can be detected.
  • a detection range is a three-dimensional area. Since the information processing program 200 according to the technology disclosed herein handles detection range information of the detection sensor 10, the detection range of the detection sensor 10 must be definable. However, even if the defined detection range does not match the actual detection range in a strict sense, the effect of the technology disclosed herein can be obtained.
  • the detection range may be defined as a detectable range obtained by trial.
  • the detection range may be defined by a method corresponding to representation such as gray scale. Cameras are classified as sensors that have a well-defined detection range. When the detection sensor 10 is a camera, the detection range is a three-dimensional area captured by the camera.
  • the detection range changes dynamically.
  • the position (hereinafter referred to as “sensor position information”) and the attitude (hereinafter referred to as “sensor attitude information”) of the detection sensor 10 in the environment ) is also required.
  • the reception unit 210 of the function of the information processing program 200 performs processing for receiving sensor position information and sensor orientation information as well.
  • a detection range in a relative coordinate system with the detection sensor 10 as a reference point can be known only from the detection signal of the detection sensor 10, but a detection range in a coordinate system fixed to the environment cannot be known.
  • Sensor position information and sensor orientation information are required for coordinate transformation from a relative coordinate system to a coordinate system fixed to the environment.
  • the sensor position information and the sensor orientation information may use fixed initial values when the detection sensor 10 is installed in the environment. If the detection sensor 10 is a camera of a camera system used in a television station or the like, sensor position information and sensor orientation information change dynamically. Means for periodically acquiring sensor position information and sensor orientation information may use another camera fixed in the environment, or may use a method using a landmark and a laser displacement meter. , the sensor may be embedded in the floor surface. Further, the means for acquiring the sensor position information and the sensor attitude information may use encoders on the wheels or may use GPS.
  • the detection range may be estimated by an image analysis technique represented by AI, based on the content of the image captured by the camera and the image information data of the environment that has been converted into data in advance.
  • the detection range may be estimated by having the camera reconstruct the 3D information through techniques of computational photography and matching it with a 3D map of the environment.
  • the reception unit 210 of the function of the information processing program 200 performs processing for receiving additional information regarding the detection sensor 10 in addition to the detection range information of the detection sensor 10 .
  • the additional information about the detection sensor 10 is, for example, the type, number, identification number of the detection sensor 10, the state indicating whether it is operating or sleeping, the strength or sensitivity of the detection sensor 10, the distance from the detection sensor 10, and the like. It can be. That is, the additional information consists of sensor information, which is information about the type, number, etc., of the detection sensor 10 and state information, which is information about the state and detection content of the detection sensor 10 .
  • the type, number, identification number, etc. of the detection sensor 10 may be called sensor information.
  • state information The state indicating whether the device is operating or sleeping, the strength or sensitivity of the detection sensor 10, the distance from the detection sensor 10, and the like may be referred to as state information.
  • State information handled by the technology disclosed herein is information that dynamically changes according to changes in the surrounding environment. That is, it can be said that the state information is information that supplements the detection range information.
  • the detection sensor 10 is a camera of a camera system used in a television station or the like
  • the additional information includes the identification number of the camera, that is, the so-called 1st camera, 2nd camera, . Information as to whether it is in AIR, etc. can be considered.
  • the method for the reception unit 210 of the function of the information processing program 200 to perform processing and for the computer to receive the detection signal and the like of the detection sensor 10 may be wired or wireless.
  • the detection range of the detection sensor 10 is generally a conical area with the detection sensor 10 as the apex, but is not limited to this.
  • the detection sensor 10 is an active human sensor, the detection sensor 10 emits a beam and detects what is reflected by a reflecting object, so the detection range is formed by a combination of line segments representing the beam.
  • the detection sensor 10 is an IR sensor, a plurality of beam-like infrared rays are emitted from the detection sensor 10, and blocking of the infrared rays by a person is defined as "detection".
  • the detection range of the detection sensor 10 is formed by a plurality of beam-shaped infrared rays.
  • the detection sensor 10 As the detection sensor 10 according to the technology disclosed herein, a sensor whose detection range can be defined is used. Specifically, when the detection sensor 10 is an IR sensor, the detection sensor 10 measures the distance at which each irradiated infrared beam is reflected. A sensing range is periodically determined based on the distance to the reflector from which each emitted beam is reflected. In this way, the detection range in the initial state and the detection range when blocked by a person are obtained.
  • the beam used by the detection sensor 10 may be an infrared beam or a laser beam. That is, the detection sensor 10 may adopt a method of a laser displacement meter.
  • IR sensors detect changes in whether or not infrared rays are blocked, but many do not measure how far away the infrared rays are blocked. Even when the detection sensor 10 is such a sensor, the technology disclosed herein can be applied. For example, compared to the initial state, if the infrared rays are not blocked, the infrared rays are represented by a normal line segment, and if the infrared rays are blocked by an obstacle, the infrared rays are blinked or vibrated to distinguish them from the normal line segments. It may be represented in a manner having a visual effect to indicate the detection range.
  • the detection sensor 10 is a passive human sensor
  • the detection range is displayed in a normal color when there is no detection, and the detection range is displayed in a different color when there is detection.
  • the detection range is displayed in a different color when there is detection.
  • the information processing apparatus and the detection system according to the technology disclosed herein have a feature that the display content dynamically changes according to the detection situation.
  • the map information conversion unit 220 which is a function of the information processing program 200, converts the detection range information obtained by reception into information on the map.
  • the information on the map is information that can be plotted on the map, and specifically includes points, line segments, areas, and the like.
  • the map information conversion unit 220 generates the invisible detection range of the sensor on a three-dimensional map, which is a virtual space.
  • the detection system according to the technique of the present disclosure skillfully overlaps two coordinate spaces, real and virtual, to represent the invisible detection range of the sensor on the real space.
  • the projection content conversion unit 230 which is a function of the information processing program 200, converts information on the map into projection content, which is two-dimensional information that can be projected onto a projection surface that is a part of the environment in association with additional information.
  • UI User Interface
  • UI means hardware/software prepared as an interface for a user by a device such as a computer.
  • UI is understood to be a display method of how data is displayed. Under such an interpretation, the technology disclosed herein can be said to be technology related to UI.
  • FIG. 2 is a schematic diagram showing the action of the detection system realized by the information processing program 200. As shown in FIG. 2 shows the action when the detection sensor 10 is an IR sensor.
  • FIG. 2A is a schematic diagram showing the operation of the detection system in the initial state with no obstructions.
  • FIG. 2B is a schematic diagram showing the operation of the detection system when there is an obstruction.
  • FIG. 2A shows that 12 infrared rays are emitted from the detection sensor 10 toward the wall inside the environment.
  • the 12 dots appearing on the wall represent the positions where the infrared rays are reflected.
  • the detection range of the detection sensor 10 cannot be seen with the naked eye.
  • the detection range can be represented as information on a virtual three-dimensional map by a model of 12 line segments starting from the detection sensor 10 and ending at each of the 12 points appearing on the wall.
  • the detection range of the invisible sensor is visualized using the floor as a projection plane.
  • the projection content conversion unit 230 performs mapping conversion for projecting information on a virtual three-dimensional map onto a projection plane. In the example shown in FIG.
  • the projection content conversion unit 230 projects and converts the 12 line segments represented in three dimensions onto the floor, which is the projection plane.
  • the projected sensing range in the example of FIG. 2A the 12 line segments projected onto the floor, is referred to as the "projected sensing range”.
  • the projection content conversion unit 230 generates projection content expressed by projecting the projection detection range onto the projection plane in the real space by the projector 30 connected to the computer on which the information processing program 200 is executed.
  • Projector 30 is preferably a short throw projector.
  • An advantage of the short-focus projector is that when the projection surface is the floor, the projector 30 can be brought closer to the floor, and the projected content is less likely to be disturbed by human shadows.
  • the projector 30 does not have to be installed at the same position as the detection sensor 10 .
  • the projection content conversion unit 230 determines where the projector 30 is installed in the environment (hereinafter referred to as “projector position information”) and in what orientation it is installed (hereinafter “projector orientation information”), Generate projection content based on the information of
  • the information processing program 200 may be a program executed by a computer concurrently executing an application that allows the projector 30 to virtually regard the projection destination of the content as a touch panel.
  • the projection destination is a place such as a wall, floor, or desk.
  • a separate sensor is required to realize a so-called touch function that allows the projection target to be virtually regarded as a touch panel, but is distinguished from the detection sensor 10 .
  • Many techniques for converting projection destinations into touch panels have already been disclosed.
  • a projected keyboard which is a projected keyboard, also applies the same principle.
  • the computer on which the information processing program 200 is executed may be a computer using any touch function technology.
  • projection detection ranges there are as many projection detection ranges as the number of detection sensors 10. For example, only one projector 30 may be prepared, and one projection content including all projection detection ranges may be projected. Also, the same number of projectors 30 as the number of detection sensors 10 may be prepared, for example, and each projector 30 may project the projection detection range of the corresponding detection sensor 10 with different projection contents. Also, the number of projectors 30 may be arbitrarily determined without depending on the number of detection sensors 10 . The number of projectors 30 may be determined in consideration of the scale of the environment and the like.
  • the projected content should include additional information.
  • the additional information may be, for example, the type of the detection sensor 10, the state indicating whether it is operating or sleeping, the intensity or sensitivity of the detection sensor 10, the distance from the detection sensor 10, and the like, as described above.
  • the corresponding detection ranges may be color-coded depending on the type or individual difference of the detection sensors 10 .
  • the projection content may be information different from the detection range. For example, if the detection sensor 10 is installed at the entrance/exit of a venue, the information different from the detection range is character information such as "closed", “exit only", "XX venue", or symbolic information such as pictograms. may be
  • the setting of the projection content is specifically the color representing the detection range, the display mode, and the contents of the additional information. For example, matters such as how to color-code the corresponding detection range depending on the type or individual difference of the detection sensor 10 may be set by an external terminal of the computer on which the information processing program 200 is executed. Character information or symbol information included in the additional information may also be set by an external terminal of the computer on which the information processing program 200 is executed.
  • the example shown in Fig. 2 is not projection mapping because the place where the projected content is projected is the floor, which is a flat projection plane and is not three-dimensional.
  • projection mapping technology may be used because the projected content is accurately aligned with the projection destination.
  • the detection system according to the present disclosure does not limit the projection destination to a plane, and may perform projection mapping with the projection destination being a three-dimensional object.
  • the output unit 240 performs processing for outputting projected content to the projector 30 .
  • the output method may be wired or wireless.
  • FIG. 3 is a flow chart showing processing steps of the detection system implemented by the information processing program 200 according to the first embodiment. As shown in FIG.
  • the processing steps include a step in which the detection sensor 10 outputs detection range information and additional information (ST10), a step in which the receiving unit 210 receives the detection range information and additional information (ST210), A step in which the map information conversion unit 220 converts the detection range information into information on the map (ST220); a step in which the projection content conversion unit 230 converts the information on the map into projection content (ST230); It includes a step of outputting the content to projector 30 (ST240) and a step of projecting the projection content by projector 30 (ST30).
  • FIG. 4 is a first schematic diagram showing an application example of the detection system according to the technology disclosed herein.
  • the detection system according to the disclosed technique can be applied to a human sensor used in elevators. Since the detection range of the detection sensor 10 is visualized by the detection system according to the technology of the present disclosure, the user can use the elevator more safely.
  • the detection sensor 10 is installed inside the elevator, and the projector 30 is installed outside the elevator. Therefore, the visualized detection range changes with the opening and closing of the elevator doors. Note that the installation location of the detection sensor 10 is not limited to the inside of the elevator. As shown in FIG.
  • the display UI may be, for example, the detection range solidly painted with a density corresponding to the intensity or sensitivity.
  • the detection system according to the technology of the present disclosure exerts a special effect during installation work and maintenance work, and is beneficial both to the installation worker who installs the detection sensor 10 and to the maintenance worker who performs maintenance. Projection of projected content can be used only during installation work and maintenance work.
  • FIG. 5 is a second schematic diagram showing an application example of the detection system according to the technology disclosed herein.
  • the detection system according to the technology disclosed herein can be applied to a human sensor used in an escalator.
  • the detection sensor 10 is a laser sensor as shown in FIG. 5
  • the display UI may be in the form of a line representing a beam of detection, for example. Since the detection range of the detection sensor 10 is visualized by the detection system according to the technology of the present disclosure, the user can use the escalator more safely.
  • the detection system according to the technology disclosed herein exerts a special effect during installation work and maintenance work, and is beneficial both to the installation worker who installs the detection sensor 10 and to the maintenance worker who performs maintenance. There is no problem even if the projection of the projection content is used only during installation work and maintenance work.
  • FIG. 5 shows an example of application to an escalator, it can of course also be applied to ordinary stairs.
  • FIG. 6 is a schematic diagram 3 showing an application example of the detection system according to the technology disclosed herein.
  • the detection system according to the technology disclosed herein can be applied to a human sensor installed in a room.
  • the display UI may be in the form of a ring representing the detection range, for example.
  • the display UI may have a size exceeding the projection range of the projector 30 .
  • the detection system according to the disclosed technology exhibits a remarkable effect during installation work and maintenance work, and is beneficial to both the installation worker who installs the detection sensor 10 and the maintenance worker who performs maintenance. be. There is no problem even if the projection of the projection content is used only during installation work and maintenance work.
  • FIG. 6 simply shows an example of application to a room, it can of course be applied to an air conditioner installed in a room and equipped with a human sensor.
  • FIG. 7 is a schematic diagram 4 showing an application example of the detection system according to the technology disclosed herein.
  • the detection system according to the disclosed technology can be applied to various gates.
  • Various types of gates include gates at ticket gates of transportation facilities, gates at company facilities used by employees, and gates at facilities such as museums used by users.
  • the gate is not limited to being made of metal, and may be made of glass, plastic, or the like that transmits the beam used for detection.
  • the display UI may be selected according to the sensor information of the detection sensors 10 . Since the detection system according to the technology of the present disclosure visualizes the detection range of the detection sensor 10, the user can use the gate more safely.
  • the detection system according to the technology disclosed herein exerts a special effect during installation work and maintenance work, and is beneficial both to the installation worker who installs the detection sensor 10 and to the maintenance worker who performs maintenance. There is no problem even if the projection of the projection content is used only during installation work and maintenance work.
  • FIG. 8 is a schematic diagram 5 showing an application example of the detection system according to the technology disclosed herein.
  • the detection system according to the disclosed technique can be applied to mobile robots such as security applications.
  • the display UI may be in the form of scale lines extending in a fan shape from the detection sensor 10 .
  • the detection system according to the disclosed technology is not limited to mobile robot applications, and has a special effect when collecting various data or when adjusting the parameters of the detection sensor 10 in the development stage or commercialization stage. .
  • FIG. 9 is a configuration diagram showing the hardware configuration of a computer on which the information processing program 200 according to Embodiment 1 is executed.
  • Each function of the information processing program 200 as shown in FIG. 9 is implemented by the receiving device and the processing circuit 20 .
  • Hardware corresponding to the receiver 210 is the receiver shown in FIG.
  • Functions of the map information conversion unit 220 and the projection content conversion unit 230 are implemented by the processing circuit 20 .
  • Hardware corresponding to the output unit 240 is an output device (not shown).
  • the processing circuit 20 is a CPU (also called a central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, processor, DSP) that executes an information processing program 200 stored in memory.
  • CPU also called a central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, processor, DSP
  • each unit of the map information conversion unit 220 and projection content conversion unit 230 are realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are written as programs and stored in memory.
  • the processing circuit 20 realizes the function of each unit by reading and executing the information processing program 200 stored in the memory. That is, when the information processing program 200 is executed by the processing circuit 20, specifically, the step of receiving the detection range information and the additional information (ST210), and converting the detection range information into information on the map.
  • a step (ST220), a step of converting information on the map into projection content (ST230), and a step of outputting the projection content to projector 30 (ST240) are executed.
  • the computer has a memory for storing the information processing program 200 .
  • the memory means any of non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, or magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD, etc. is applicable.
  • the processing circuit 20 can implement each of the above functions by hardware, software, firmware, or a combination thereof.
  • the information processing program 200 may be executed by a computer concurrently executing an application that allows the projection destination on which the projector 30 projects content to be virtually regarded as a touch panel.
  • the user of the detection system realized by the information processing program 200 can also edit the projection content by regarding the projection destination as a touch panel. Projected content can also be edited using a computer operating terminal such as a keyboard and a mouse.
  • FIG. 10 is a first schematic diagram showing a mode of editing projected content.
  • the user of the information processing program 200 can edit the content displayed on the display of the external terminal such as a smart phone by using methods such as finger movements and gestures.
  • the user of the information processing program 200 can edit the projection content projected onto the projection destination such as the floor, for example, by moving the feet or gesturing.
  • FIG. 10 shows how the projected content is deformed by grabbing and dragging a portion of the projected content. Editing of projected content in the manner shown on the right side of FIG. 10 may be accomplished using techniques such as a projected keyboard or contactless buttons, for example. Editing of projected content in the mode shown on the right side of FIG.
  • the information processing program 200 may be realized using a tracking technology typified by a laser tracker.
  • the information processing program 200 performs operations using a keyboard and mouse connected to a computer, operations on the display of an external terminal such as a smartphone, operations such as gestures in an actual space, and mutually It is possible to edit in real time the projection content that has been operated and the detection range has been visualized.
  • the information processing program 200 according to the technology disclosed herein is executed by a computer that accepts commands from the outside, and projected content is edited according to the commands from the outside.
  • FIG. 11 is a second schematic diagram showing a mode of editing projected content. As shown in FIG. 11, the user can also trim the projected content by drawing a trajectory on the touch-displayed floor.
  • FIG. 12 is a schematic diagram 3 showing a mode of editing projected content.
  • the user can edit the projection detection range shown in the projection content not only by direct methods, but also by indirect methods.
  • the projection content may include buttons such as sliders and boxes for changing parameters in addition to the projection detection range.
  • the user is editing the projection detection range by grabbing and dragging the slider for changing the parameter and changing the parameter.
  • the user selects one of a plurality of boxes in which parameter values are determined, and edits the projection detection range.
  • FIG. 13 is a schematic diagram No. 4 showing a mode of editing projected content.
  • the projection detection range in the projection content may be divided into multiple areas.
  • the user selects an area to be displayed from a plurality of divided areas.
  • content can be edited in various ways, and the detection system realized by the information processing program 200 according to the technology disclosed herein can edit content in various ways.
  • FIGS. 10 to 13 merely show examples of embodiments of the disclosed technology, and merely show how the disclosed technology can be embodied. Accordingly, there is no intention to limit the scope of the claims by showing Figures 10-13.
  • FIG. 14 is a reference diagram for explaining the disclosed technology.
  • the upper part of FIG. 14 shows projected content when the detection sensor 10 is embedded in the floor.
  • the lower part of FIG. 14 shows the projected content when the detection sensor 10 is embedded in the wall.
  • the position of the projector 30 is the same in both the upper stage and the lower stage of FIG. In this way, the projected content is processed according to the relative positions of the detection sensor 10 and the projector 30, and can be displayed in real time.
  • FIG. 14 shows an example of displaying the visualized detection range on the screen of the external terminal.
  • the detection system realized by the information processing program 200 according to the first embodiment has the above configuration, the detection range of the invisible detection sensor 10 is directly displayed on the real space and visualized when necessary. is possible.
  • the information processing program 200 according to the technology disclosed herein provides a new concept detection system and contributes to sales promotion of products.
  • a detection system implemented by the information processing program 200 according to the second embodiment is a system implemented when the detection sensor 10 is a camera.
  • the detection system according to the second embodiment can be applied to camera systems used in television stations and the like, photographing systems in concert venues, and the like.
  • the reference numerals used in the second embodiment are the same as those in the first embodiment, except for intentional distinction. Further, explanations overlapping with those of the first embodiment are omitted as appropriate. Note that the term “detection" used in the second embodiment may be read as "capturing".
  • Cameras are classified as sensors that have a clear detection range.
  • the detection range is a three-dimensional area captured by the camera. A moving image captured by a camera is displayed in a rectangle such as a TV screen. From this, it can be said that when the detection sensor 10 is a camera, the detection range is a three-dimensional shape cut out from a quadrangular pyramid. Note that when a special lens such as a fisheye lens is used for the camera, the detection range may have another three-dimensional shape such as a cone.
  • the detection sensor 10 Even if the detection sensor 10 is a camera, if a person has already been photographed, the area behind that person is not photographed.
  • the detection sensor 10 is a camera, the detection range can be obtained by imagining that light is virtually emitted from the camera to form a quadrangular pyramid. When the emitted light hits the object being photographed, the area behind it becomes a shadow and the light does not reach it. Even if there is an object to be photographed, if the detection sensor 10 is a camera, the detection range is a three-dimensional shape cut out from a quadrangular pyramid.
  • the detection sensor 10 is a camera of a camera system used in a television station or the like
  • the sensor position information and sensor orientation information change dynamically.
  • Means for periodically acquiring sensor position information and sensor orientation information may use another camera fixed in the environment, or may use a method using a landmark and a laser displacement meter.
  • the sensor may be embedded in the floor surface.
  • the means for acquiring the sensor position information and the sensor attitude information may use encoders on the wheels or may use GPS.
  • the detection range may be estimated by an image analysis technique represented by AI, based on the content of the image captured by the camera and the image information data of the environment that has been converted into data in advance.
  • the detection range may be estimated by having the camera reconstruct the 3D information through techniques of computational photography and matching it with a 3D map of the environment.
  • the map information conversion unit 220 converts the detection range, which is a three-dimensional shape cut out from a quadrangular pyramid, into information on the map.
  • the information on the map is the information that can be plotted on the map.
  • a detection range, which is a three-dimensional shape cut out from a quadrangular pyramid, can be represented by a point group.
  • a three-dimensional map defines a virtual space with a grid of points.
  • a grid included in the detection range may be flagged with 1 to indicate that it is within the detection range so that the detection range can be specified.
  • the additional information includes the identification number of the camera, that is, the so-called 1st camera, 2nd camera, .
  • Information as to whether it is in AIR, etc. can be considered.
  • the projection content conversion unit 230 converts information on the map into projection content, which is two-dimensional information that can be projected onto a projection plane that is part of the environment in association with additional information.
  • the projection surface may be, for example, the floor surface in the second embodiment as well.
  • the projection content conversion unit 230 projects and converts a detection range, which is a three-dimensional shape or the like cut out from a square pyramid, onto a projection plane. For example, if the detection range is represented by a point group, conversion to projection content may be achieved by projecting each point of the point group onto a projection plane.
  • the detection system according to Embodiment 2 directly displays and visualizes the detection range of the invisible camera on the real space. Visualization of the detection range is realized by expressing additional information such as the ON/OFF state of the camera and the focus position of the camera. Therefore, the detection system according to the second embodiment is effective for photographers, announcers, performers, directors, producers, creators, and others.
  • the mode of use of the detection system according to Embodiment 2 is effective, for example, in new employee training and rehearsals.
  • the detection system according to Embodiment 2 can be applied not only to camera systems used at television stations, but also to shooting systems at concert venues. Moreover, the detection system according to the second embodiment can be applied not only to television stations but also to camera systems for general consumers.
  • the information processing program 200 according to the technology disclosed herein and the detection system realized thereby can be applied to elevators, escalators, automatic doors, gates, mobile robots, camera systems, etc., and have industrial applicability.
  • 1 detection system 10 detection sensor, 20 processing circuit, 30 projector, 200 information processing program, 210 reception unit, 220 map information conversion unit, 230 projection content conversion unit, 240 output unit.

Abstract

本開示技術に係る情報処理プログラムは、少なくとも1つの検知センサ(10)と、少なくとも1つのプロジェクタ(30)と、に接続され、検知センサ(10)が設置される環境の3次元マップを有するコンピュータで実行されるプログラムである。本開示技術に係る情報処理プログラムは、3次元情報である検知センサ(10)の検知範囲情報と、検知センサ(10)に関する付加的情報と、を前記コンピュータが受信する処理を行う受信部(210)と、検知範囲情報をマップ上の情報に変換するマップ情報変換部(220)と、マップ上の情報を、付加的情報と関連づけて環境の中の一部分である投影面に投影できる投影コンテンツに変換する投影コンテンツ変換部(230)と、投影コンテンツをプロジェクタへ出力する出力部(240)と、の機能を備える。本開示技術に係る情報処理プログラムが実行されるコンピュータは、外部からの指令を受け付け、この指令に応じて、投影コンテンツが編集される。

Description

情報処理プログラム及び検知システム
 本開示技術は、情報処理プログラム及び検知システムに関する。
 検知センサは様々な用途で使われ、その方式には赤外線方式、レーザ方式、等の様々なものが存在する。各種検知センサの分野において、販売を促進するため、他社製品との差別化が行われている。
 例えば自動ドアセンサにおいて、検知エリアをGUI端末に提示する技術を提供し、他社製品との差別化を行っているものが開示されている(特許文献1)。
特開2018-163651号公報
 検知センサの分野において、新しいコンセプトが求められている。新しいコンセプトは、他社製品とのより大きな差別化を実現する。この大きな差別化は、ユーザの購買意欲を高め、販売をさらに促進する。
 本開示技術は、検知センサの分野において新しいコンセプトを提供し、製品の販売をさらに促進することを目的とする。
 本開示技術に係る情報処理プログラムは、少なくとも1つの検知センサと、少なくとも1つのプロジェクタと、に接続され、検知センサが設置される環境の3次元マップを有するコンピュータで実行されるプログラムである。本開示技術に係る情報処理プログラムは、3次元情報である検知センサの検知範囲情報と、検知センサに関する付加的情報と、を前記コンピュータが受信する処理を行う受信部と、検知範囲情報をマップ上の情報に変換するマップ情報変換部と、マップ上の情報を、付加的情報と関連づけて環境の中の一部分である投影面に投影できる投影コンテンツに変換する投影コンテンツ変換部と、投影コンテンツをプロジェクタへ出力する出力部と、の機能を備える。本開示技術に係る情報処理プログラムが実行されるコンピュータは、外部からの指令を受け付け、この指令に応じて、前記投影コンテンツが編集される。
 本開示技術に係る情報処理プログラムにより実現される検知システムは上記構成を備えるため、必要なときに、目に見えない検知センサの検知範囲を実空間上に直接表示し可視化が可能である。このように本開示技術に係る情報処理プログラムは新しいコンセプトの検知システムを提供し、製品の販売促進に寄与する。
図1は、実施の形態1に係る情報処理プログラムにより実現される検知システムの機能を表す機能ブロック図である。 図2は、本開示技術に係る情報処理プログラムにより実現される検知システムの作用を示す模式図である。図2Aは、遮蔽物がない初期状態における検知システムの作用を示す模式図である。図2Bは、遮蔽物がある場合の検知システムの作用を示す模式図である。 図3は、実施の形態1に係る情報処理プログラムにより実現される検知システムの処理工程を表すフローチャートである。 図4は、本開示技術に係る検知システムの応用例を示した模式図その1である。 図5は、本開示技術に係る検知システムの応用例を示した模式図その2である。 図6は、本開示技術に係る検知システムの応用例を示した模式図その3である。 図7は、本開示技術に係る検知システムの応用例を示した模式図その4である。 図8は、本開示技術に係る検知システムの応用例を示した模式図その5である。 図9は、実施の形態1に係る情報処理プログラムが実行されるコンピュータのハードウエア構成を表す構成図である。 図10は、投影コンテンツを編集する態様を示した模式図その1である。 図11は、投影コンテンツを編集する態様を示した模式図その2である。 図12は、投影コンテンツを編集する態様を示した模式図その3である。 図13は、投影コンテンツを編集する態様を示した模式図その4である。 図14は、本開示技術を説明する参考図である。
 本開示技術に係る情報処理プログラム200により実現される検知システムが提供する新しいコンセプトとは、必要なときに、目に見えないセンサの検知範囲を実空間上に直接表示し可視化するというものである。しかもその可視化は、センサに関する付加的な情報を表現した方法で行う、というものである。このコンセプトがどのように具現化されるかは、以下の実施の形態の記載により明らかになる。
実施の形態1.
 図1は、実施の形態1に係る情報処理プログラム200により実現される検知システムの機能を表す機能ブロック図である。図1に示されるとおり本開示技術に係る情報処理プログラム200は、受信部210と、マップ情報変換部220と、投影コンテンツ変換部230と、出力部240と、の機能ブロックを含む。また実施の形態1に係る情報処理プログラム200は、プロジェクタ30が投影した投影先を仮想的にタッチパネルとみなせるアプリケーションが走っているコンピュータで実行されるプログラムであってもよい。このコンピュータは、少なくとも1つの検知センサ10と、少なくとも1つのプロジェクタ30と、に接続されている。
 また本開示技術に係る検知システムは、情報処理プログラム200が実行されるコンピュータと、少なくとも1つの検知センサ10と、少なくとも1つのプロジェクタ30と、により構成される。
 情報処理プログラム200が扱う検知センサ10は、1つでも複数個でもよい。また検知センサ10は、情報処理プログラム200が実行されるコンピュータとは離れた位置に設置された外部のセンサであってもコンピュータと一体となって組み込まれたセンサであってもよい。さらに情報処理プログラム200は、外部の検知センサ10と組み込まれた検知センサ10とを同時に扱ってもよい。
 検知センサ10の具体例は、周囲の物体を検知するための焦電センサなどに代表されるセンサ(以降「人感センサ」と称する)、レーザ変位計、又はカメラでもよい。検知センサ10をカメラとした場合の態様は、後述の別の実施の形態により明らかになる。
 本開示技術に係る情報処理プログラム200が扱う検知センサ10は、赤外線等を発しているアクティブなセンサでよい。検知センサ10は、後述するパッシブなセンサでもよい。
 さらに検知センサ10は、測域センサ、超音波センサ、温度センサ、深度センサ、ファイバセンサ、あるいはカラーセンサ、でもよい。
 検知センサ10が使用される場面も、様々なものが考えられる。例えば検知センサ10は、エレベータの扉、エスカレータの乗り口、エスカレータの降り口、入退管理ゲート、各種出入口の自動扉、自動運転のセキュリティロボット、ヒトを感知する空調設備等、に使用されることが考えられる。
 検知センサ10が利用される設備の種類は、上記のほか、施設内サイネージ、建築空間内の各種設備、監視カメラ、でもよい。建築空間内の各種設備は、通路周辺、階段の周辺、あるいは建物出入口、等に設置されるものでもよい。
 検知センサ10がカメラの場合、テレビ局などで使用されるカメラシステム、コンサート会場の撮影システム等に使用されることが考えられる。
 情報処理プログラム200は、検知センサ10が設置される環境の3次元マップをデータとして有する。検知センサ10が設置される環境とは、例えば検知センサ10がある建物のエレベータホールに設置される場合、そのエレベータホールを指す。3次元マップとは、この場合で言えばエレベータホール内のジオメトリを再現可能な数値データである。ここで用いられるマップという用語は、一般的な地図と同じ意味と考えてよい。環境の3次元マップは、一般的な3D計測技術及び3次元データを取得する方法が用いられてよい。具体的に環境の3次元マップは、3Dレーザスキャナを用いて作成されてもよい。また広い環境の3次元マップを作成する方法は、LiDARで計測した計測値にGPSの位置情報を組み合わせて環境内の3次元点の座標を求める方法でもよい。環境の3次元マップは、検知センサ10の相対位置に基づいて検出されてよい。
 情報処理プログラム200の機能の受信部210は、検知センサ10の検知範囲情報を受信する処理を行う。検知センサ10の検知範囲情報とは、例えば検知センサ10が人感センサである場合、ヒトを検知できる範囲に関する情報を指す。検知範囲は、3次元的な領域である。本開示技術に係る情報処理プログラム200は検知センサ10の検知範囲情報を扱うため、検知センサ10の検知範囲が定義可能でなければならない。ただし定義される検知範囲は、現実の検知範囲と厳密な意味で一致してなくても本開示技術の効果を奏する。例えば人が発する熱を光としてレンズが捕えるパッシブな人感センサの場合、検知範囲は試行によって得られる検知が可能な範囲として定義されてもよい。また、検知範囲の境界がはっきりと求められない場合、例えばグレイスケールのような表現に対応した方法で検知範囲が定義されてもよい。
 カメラは、検知範囲が明確に存在するセンサに分類される。検知センサ10がカメラの場合、検知範囲はカメラに映る3次元的な領域となる。
 検知センサ10が、例えばすでにある人物を検知している場合、その人物の後の領域については検知ができない。つまり検知範囲は、動的に変化する。検知範囲を動的に把握するためには、例えば検知センサ10の検知信号そのものを受信する必要がある。
 検知センサ10がカメラの場合でも、すでにある人物を撮影している場合、その人物の後の領域は撮影されない。
 検知範囲情報を得るためには、検知センサ10の検知信号のほか、検知センサ10が環境の中のどの位置(以降、「センサ位置情報」という)に、どの姿勢(以降、「センサ姿勢情報」という)で設置されているか、という情報も必要である。情報処理プログラム200の機能の受信部210は、センサ位置情報、及びセンサ姿勢情報も受信する処理を行う。検知センサ10の検知信号のみでは、検知センサ10を基準点とした相対的な座標系での検知範囲はわかるが、環境に固定された座標系での検知範囲はわからない。相対座標系から環境に固定された座標系への座標変換を行う上で、センサ位置情報とセンサ姿勢情報が必要となる。検知センサ10が環境に固定された人感センサの場合、センサ位置情報及びセンサ姿勢情報は、検知センサ10が環境に設置されたときの初期値が固定的に使われてもよい。
 検知センサ10がテレビ局などで使用されるカメラシステムのカメラである場合、センサ位置情報とセンサ姿勢情報は動的に変化する。センサ位置情報とセンサ姿勢情報とを定期的に取得する手段は、環境に固定された別のカメラが利用されてもよいし、ランドマークとレーザ変位計とを使う方式が利用されてもよいし、床面にセンサが埋め込まれていてもよい。また、センサ位置情報とセンサ姿勢情報とを取得する手段は、車輪にエンコーダが利用されてもよいし、GPSが利用されてもよい。また、カメラで撮影された画像の内容とあらかじめデータ化された環境の画像情報データとに基づいて、AIに代表される画像解析技術により検知範囲が推定されてもよい。さらにカメラがコンピュテーショナルフォトグラフィーの技術により3次元情報を再現し、環境の3次元マップとマッチングをするようにして、検知範囲が推定されてもよい。
 情報処理プログラム200の機能の受信部210は、検知センサ10の検知範囲情報のほか、検知センサ10に関する付加的情報をも受信する処理を行う。検知センサ10に関する付加的情報とは、例えば検知センサ10の種類、個数、識別番号、稼働しているかスリープ中かを表す状態、検知センサ10の強度又は感度、検知センサ10からの距離、等であってよい。すなわち付加的情報は、検知センサ10の種類、個数、等に関する情報であるセンサ情報と、検知センサ10の状態及び検知内容に関する情報である状態情報と、から構成される。検知センサ10の種類、個数、識別番号、等は、センサ情報と言ってよい。稼働しているかスリープ中かを表す状態、検知センサ10の強度又は感度、検知センサ10からの距離等は、状態情報と言ってよい。本開示技術が扱う状態情報は、周囲の環境の変化に応じて動的に変化する情報である。すなわち状態情報は、検知範囲情報を補う情報であると言える。
 検知センサ10がテレビ局などで使用されるカメラシステムのカメラである場合、付加的情報は、カメラの識別番号すなわち俗に言う1カメ、2カメ、…の別、カメラの焦点位置、どのカメラがON AIRになっているかの情報、等が考えられる。
 情報処理プログラム200の機能の受信部210が処理を行ってコンピュータが検知センサ10の検知信号等を受信する方法は、有線によるものでも無線によるものでもよい。
 検知センサ10の検知範囲は、検知センサ10がパッシブな人感センサの場合には一般的には検知センサ10を頂点とする円錐状の領域となるが、これに限定されない。検知センサ10がアクティブな人感センサの場合、検知センサ10はビームを照射して反射物に反射したものを検知するため、検知範囲はビームを表す線分の組合せで形作られる。例えば検知センサ10がIRセンサである場合、検知センサ10からはビーム状の赤外線が複数本照射され、その赤外線が人によって遮られることが「検知」とされる。この場合に検知センサ10の検知範囲は、複数本照射されたビーム状の赤外線によって形作られる。
 本開示技術に係る検知センサ10は、検知範囲が定義可能なものが用いられる。具体的に検知センサ10がIRセンサである場合、検知センサ10は、照射されるそれぞれのビーム状の赤外線が、どの距離で反射されたかを計測する。照射されるそれぞれのビームが反射される反射物までの距離に基づいて、検知範囲が定期的に求められる。このようにして、初期状態の検知範囲、及び人によって遮られた場合の検知範囲、が求められる。
 なお検知センサ10が用いるビームは、赤外線のほかレーザビームであってもよい。すなわち検知センサ10は、レーザ変位計の方式が採用されてもよい。
 多くのIRセンサは、赤外線が遮られたか否かの変化は検知するが、どれくらい離れた距離にある位置で赤外線が遮られたかまでは求めないものも多い。検知センサ10がこのようなセンサの場合でも本開示技術を適用することが可能である。例えば、初期状態と比較して、赤外線が遮られていなければその赤外線を通常の線分で表し、赤外線が障害物で遮られればその赤外線を点滅又は振動等させ通常の線分とは区別できる視覚効果を有する態様で表し、検知範囲を示すようにしてもよい。また、検知センサ10がパッシブな人感センサである場合も同様で、検知がない場合には通常の色で検知範囲を表示し、検知がある場合には別の色で検知範囲を表示するようにしてもよい。検知範囲がどのように表示されるかについては、後述の投影コンテンツ変換部230の説明により明らかとなる。本開示技術に係る情報処理装置及び検知システムは、検知状況に応じて動的に表示内容が変化する、という特徴を有する。
 情報処理プログラム200の機能のマップ情報変換部220は、受信により得られた検知範囲情報をマップ上の情報に変換する。マップ上の情報とは、マップ上にプロットが可能な情報であり、具体的には点、線分、領域等で構成されたものある。別の言い方をすればマップ情報変換部220は、目に見えないセンサの検知範囲を、仮想的な空間である3次元マップ上に生成させる。本開示技術に係る検知システムは、現実とバーチャルとの2つの座標空間を巧みに重ねることにより、目に見えないセンサの検知範囲を実空間上に表現する。
 情報処理プログラム200の機能の投影コンテンツ変換部230は、マップ上の情報を、付加的情報と関連づけて環境の中の一部分である投影面に投影できる2次元情報である投影コンテンツに変換する。一般に、UI(User Interface)は、コンピュータ等の機器側がユーザに対してインターフェースとして用意しているハードウエア・ソフトウエアを意味する。より簡単に言えばUIは、データをどう見せるかという表示方法であると解される。このような解釈のもとで言えば、本開示技術は、UIに関する技術であると言える。本開示技術に係る投影コンテンツは、あらかじめ複数の種類が用意された見せ方の型(以降、「表示UI」と称する)から自動又は手動でセンサ情報に適した一つを選択し、選択された表示UIを検知範囲情報及び状態情報に応じて動的に加工して得る、といった構成が考えられる。投影コンテンツ変換部230の処理内容は、図2に沿った説明により明らかとなる。図2は、情報処理プログラム200により実現される検知システムの作用を示す模式図である。図2は、検知センサ10がIRセンサである場合の作用を示している。図2Aは、遮蔽物がない初期状態における検知システムの作用を示す模式図である。図2Bは、遮蔽物がある場合の検知システムの作用を示す模式図である。
 図2Aは、検知センサ10から12本の赤外線が環境の内部の壁に向けて照射されていることを表している。壁に現れている12個の点は、赤外線が反射された位置を表している。前述したように検知センサ10の検知範囲は、目でみることができない。検知範囲は、検知センサ10を起点とし壁に現れている12個の点のそれぞれを終端とする12個の線分というモデルにより、バーチャルな3次元マップ上の情報として表現できる。図2Aの例では、目に見えないセンサの検知範囲が、床を投影面として可視化されている。投影コンテンツ変換部230は、バーチャルな3次元マップ上の情報を、投影面に投影する写像変換を行う。図2Aにより示された例で投影コンテンツ変換部230は、3次元で表された12個の線分を、投影面である床に投影変換する。投影変換された検知範囲、図2Aの例では床に投影された12本の線分は、「投影検知範囲」と称される。
 投影コンテンツ変換部230は、情報処理プログラム200が実行されるコンピュータに接続されたプロジェクタ30によって、投影検知範囲を実空間の投影面に投影して表現する投影コンテンツを生成する。プロジェクタ30は、短焦点プロジェクタであることが望ましい。短焦点プロジェクタであるメリットは、投影面が床である場合、プロジェクタ30を床面に近づけられ、投影される投影コンテンツが人の影で邪魔されにくい、ということが挙げられる。プロジェクタ30は、検知センサ10と同じ位置に設置されている必要はない。投影コンテンツ変換部230は、プロジェクタ30が環境内のどの位置に設置されているか(以降、「プロジェクタ位置情報」とう称する)、及びどの姿勢で設置されているか(以降、「プロジェクタ姿勢情報」)、との情報に基づいて、投影コンテンツを生成する。
 本開示技術に係る情報処理プログラム200は、プロジェクタ30がコンテンツを投影する投影先を仮想的にタッチパネルとみなせるようなアプリケーションが同時に実行されているコンピュータで実行されるプログラムであってもよい。例えば投影先は、壁、床、机上といった場所である。投影先を仮想的にタッチパネルとみなせるいわゆるタッチ機能を実現するために、別途センサが必要であるが、検知センサ10とは区別する。投影先をタッチパネル化する技術は、すでに多く開示されている。キーボードを投影してなる投影式キーボードも、同様の原理を応用したものである。情報処理プログラム200が実行されるコンピュータは、いずれのタッチ機能技術が用いられたコンピュータであってもよい。
 投影検知範囲は、検知センサ10の個数だけ存在する。プロジェクタ30は、例えば1台だけ準備され、すべての投影検知範囲が含まれた1つの投影コンテンツが投影されてもよい。また、プロジェクタ30は、例えば検知センサ10の個数と同数だけ準備され、それぞれのプロジェクタ30が、対応する検知センサ10の投影検知範囲を別々の投影コンテンツによって投影してもよい。またプロジェクタ30の個数は、検知センサ10の個数に依らず、任意に決められてよい。プロジェクタ30の個数は、環境の規模等を考慮して決めるとよい。
 投影コンテンツは、付加的情報を含むようにするとよい。付加的情報は、前述のとおり例えば検知センサ10の種類、稼働しているかスリープ中かを表す状態、検知センサ10の強度又は感度、検知センサ10からの距離等であってよい。例えば検知センサ10が複数用いられている場合、検知センサ10の種類や個体の違いによって、対応する検知範囲が色分けされていてもよい。また、検知センサ10がスリープ状態及び休止状態のときに、投影コンテンツは検知範囲とは異なった情報であってもよい。例えば検知センサ10がある会場の出入口に設置されたものである場合、検知範囲とは異なった情報は、「閉鎖中」「出口専用」「〇〇会場」等の文字情報又はピクトグラム等の記号情報であってもよい。
 投影コンテンツは、情報処理プログラム200が実行されるコンピュータの外部端末によって、各種設定を変更可能としてよい。投影コンテンツの設定とは、具体的には検知範囲を表す色、表示態様、及び付加的情報の内容である。例えば検知センサ10の種類や個体の違いによって対応する検知範囲をどう色分けするか、といった事項は、情報処理プログラム200が実行されるコンピュータの外部端末によって設定できるようにしてよい。また、付加的情報に含まれる文字情報又は記号情報も、情報処理プログラム200が実行されるコンピュータの外部端末によって設定できるようにしてよい。
 図2に示した例は、投影コンテンツが映される場所は床という平面の投影面であり立体ではないから、プロジェクションマッピングではない。ただし、投影先に投影コンテンツが正確に位置合わせされるという点で共通するから、プロジェクションマッピングの技術が用いられてよい。本開示に係る検知システムは、投影先を平面に限定するものではなく、投影先を立体としたプロジェクションマッピングを行ってもよい。
 出力部240は、投影コンテンツをプロジェクタ30へ出力する処理を行う。出力方法は、有線によるものでも無線によるものでもよい。
 実施の形態1に係る情報処理プログラム200により実現される検知システムの作用は、フローチャートとして表すこともできる。図3は、実施の形態1に係る情報処理プログラム200により実現される検知システムの処理工程を表すフローチャートである。図3に示されるとおり処理工程は、検知センサ10が検知範囲情報及び付加的情報を出力するステップ(ST10)と、受信部210が検知範囲情報及び付加的情報を受信するステップ(ST210)と、マップ情報変換部220が検知範囲情報をマップ上の情報に変換するステップ(ST220)と、投影コンテンツ変換部230がマップ上の情報を投影コンテンツに変換するステップ(ST230)と、出力部240が投影コンテンツをプロジェクタ30へ出力するステップ(ST240)と、プロジェクタ30が投影コンテンツを投影するステップ(ST30)と、を含む。
 図4は、本開示技術に係る検知システムの応用例を示した模式図その1である。図4に示されるとおり、本開示技術に係る検知システムは、エレベータに用いる人感センサに応用できる。本開示技術に係る検知システムにより検知センサ10の検知範囲が可視化されるため、利用者がより安全にエレベータを利用できる。図4で示された例では検知センサ10がエレベータ内に設置され、プロジェクタ30がエレベータ外に設置されている。よって可視化された検知範囲は、エレベータの扉の開閉に伴い変化する。なお検知センサ10の設置場所はエレベータ内に限定されるものではない。
 図4に示されるように検知センサ10がIRセンサである場合、表示UIは、例えば検知範囲を強度又は感度に応じた濃さでベタ塗りしたものでもよい。
 本開示技術に係る検知システムは、設置作業時及び保守作業時に格別な効果を発揮し、検知センサ10を設置する設置作業者及び保守を行うメンテナンス作業者にとっても有益である。投影コンテンツの投影は、設置作業時及び保守作業時に限定する使い方がされても問題ない
 図5は、本開示技術に係る検知システムの応用例を示した模式図その2である。図5に示されるとおり、本開示技術に係る検知システムは、エスカレータに用いる人感センサに応用できる。
 図5に示されるように検知センサ10がレーザセンサである場合、表示UIは、例えば検知のビームを表した線状の形態のものでよい。
 本開示技術に係る検知システムにより検知センサ10の検知範囲が可視化されるため、利用者がより安全にエスカレータを利用できる。また本開示技術に係る検知システムは、設置作業時及び保守作業時に格別な効果を発揮し、検知センサ10を設置する設置作業者及び保守を行うメンテナンス作業者にとっても有益である。投影コンテンツの投影は、設置作業時及び保守作業時に限定する使い方がされても問題ない。図5ではエスカレータに応用する例が示されたが、もちろん通常の階段にも応用できる。
 図6は、本開示技術に係る検知システムの応用例を示した模式図その3である。図6に示されるとおり、本開示技術に係る検知システムは、部屋に設置された人感センサに応用できる。
 図6に示されるように検知センサ10がパッシブな人感センサである場合、表示UIは、例えば検知範囲を表したリング状の形態のものでよい。また図6に示されるように表示UIは、プロジェクタ30の投影範囲を超える大きさになってもよい。
 エスカレータの応用例と同様、本開示技術に係る検知システムは、設置作業時及び保守作業時に格別な効果を発揮し、検知センサ10を設置する設置作業者及び保守を行うメンテナンス作業者にとっても有益である。投影コンテンツの投影は、設置作業時及び保守作業時に限定する使い方がされても問題ない。図6では単に部屋に応用する例が示されたが、もちろん部屋に設置され人感センサを備える空調機にも応用できる。
 図7は、本開示技術に係る検知システムの応用例を示した模式図その4である。図7に示されるとおり、本開示技術に係る検知システムは、各種のゲートに応用できる。各種のゲートには、交通機関の改札口におけるゲート、所属員が使う会社施設等のゲート、利用者が使う博物館等の施設のゲート、が考えられる。ゲートは、金属製に限らず、ガラス、プラスチックといった検知に用いるビームを透過するものであってもよい。
 図7に示されるように検知センサ10が複数種類用いられる場合、表示UIは、検知センサ10のセンサ情報に応じてそれぞれ選択されてよい。
 本開示技術に係る検知システムにより検知センサ10の検知範囲が可視化されるため、利用者がより安全にゲートを利用できる。また本開示技術に係る検知システムは、設置作業時及び保守作業時に格別な効果を発揮し、検知センサ10を設置する設置作業者及び保守を行うメンテナンス作業者にとっても有益である。投影コンテンツの投影は、設置作業時及び保守作業時に限定する使い方がされても問題ない。
 図8は、本開示技術に係る検知システムの応用例を示した模式図その5である。図8に示されるとおり、本開示技術に係る検知システムは、セキュリティ用途等の移動ロボットに応用できる。
 図8に示されるように検知センサ10が光学式等の距離センサである場合、表示UIは、検知センサ10から扇状に広がる目盛線が示された形態であってよい。
 移動ロボットの応用例に限らず本開示技術に係る検知システムは、開発段階又は商品化段階において、各種データを収集する際に、あるいは検知センサ10のパラメータを調整する際に、格別な効果を奏する。
 図9は、実施の形態1に係る情報処理プログラム200が実行されるコンピュータのハードウエア構成を表す構成図である。図9に示されるとおり情報処理プログラム200の各機能は、受信装置、処理回路20、により実現される。受信部210に対応するハードウエアは、図9に示される受信装置である。マップ情報変換部220と投影コンテンツ変換部230との機能は、処理回路20により実現される。出力部240に対応するハードウエアは、図示されていない出力装置である。処理回路20は、メモリに格納される情報処理プログラム200を実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)である。
 マップ情報変換部220、投影コンテンツ変換部230の各部の機能は、ソフトウエア、ファームウエア、又はソフトウエアとファームウエアとの組合せにより実現される。ソフトウエアとファームウエアはプログラムとして記述され、メモリに格納される。処理回路20は、メモリに記憶された情報処理プログラム200を読み出して実行することにより、各部の機能を実現する。すなわち、情報処理プログラム200は、処理回路20により実行されるときに、具体的には、検知範囲情報及び付加的情報を受信するステップ(ST210)と、検知範囲情報をマップ上の情報に変換するステップ(ST220)と、マップ上の情報を投影コンテンツに変換するステップ(ST230)と、投影コンテンツをプロジェクタ30へ出力するステップ(ST240)と、が実行される。コンピュータは、情報処理プログラム200を格納するためのメモリを備える。また、これらのプログラムは、マップ情報変換部220、投影コンテンツ変換部230の手順及び方法をコンピュータに実行させるものである、とも言える。ここで、メモリとは、例えばRAM、ROM、フラッシュメモリ、EPROM、EEPROM等の、不揮発性又は揮発性の半導体メモリ、若しくは磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等のいずれもが該当する。
 このように処理回路20は、ハードウエア、ソフトウエア、ファームウエア、又はこれらの組合せによって、上記の各機能を実現することができる。
 本開示技術に係る情報処理プログラム200は、プロジェクタ30がコンテンツを投影する投影先を仮想的にタッチパネルとみなせるようなアプリケーションが同時に実行されているコンピュータで実行してもよい。この場合情報処理プログラム200により実現された検知システムの利用者は、投影先をタッチパネルとみなして投影コンテンツを編集することもできる。
 また投影コンテンツは、キーボード、マウス、等のコンピュータの操作端末で編集することもできる。
 図10は、投影コンテンツを編集する態様を示した模式図その1である。図10の左側に示されるとおり情報処理プログラム200の利用者は、スマートフォン等の外部端末のディスプレイに表示されたコンテンツを、指の動き、ジェスチャーといった方法により、編集することができる。また図10の右側に示されるとおり情報処理プログラム200の利用者は、床等の投影先に投影された投影コンテンツを、例えば足の動き、ジェスチャーといった方法により、編集することができる。図10は、投影コンテンツの一部をつかんでドラッグすることで、投影コンテンツを変形させている様子を示している。図10の右側に示される態様での投影コンテンツの編集は、例えば投影式キーボードあるいは非接触ボタンといった技術を用いて実現されてよい。また図10の右側に示される態様での投影コンテンツの編集は、レーザートラッカーに代表されるトラッキング技術を用いて実現されてもよい。
 本開示技術に係る情報処理プログラム200は、コンピュータに接続されたキーボード及びマウスからの操作と、スマートフォン等の外部端末のディスプレイにおける操作と、実在する空間内におけるジェスチャー等の操作と、これらを相互に作用させ、検知範囲を可視化した投影コンテンツをリアルタイムで編集することができる。言い換えれば本開示技術に係る情報処理プログラム200は、外部からの指令を受け付けるコンピュータで実行され、この外部からの指令に応じて投影コンテンツが編集される。
 図11は、投影コンテンツを編集する態様を示した模式図その2である。図11に示されたとおり利用者は、タッチディスプレイ化された床で軌跡を描くことにより、投影コンテンツをトリミングすることも可能である。
 図12は、投影コンテンツを編集する態様を示した模式図その3である。図12に示されたとおり利用者は、投影コンテンツの中に示された投影検知範囲を直接的な方法のみならず、間接的な方法によっても編集できることを示している。図12に示されるように、投影コンテンツは、投影検知範囲のほか、パラメータを変更するスライダー、ボックス、といったボタン類が含まれていてもよい。図12の右側において利用者は、パラメータを変更するスライダーをつかんでドラッグし、パラメータを変更することで投影検知範囲を編集している。図12の左側において利用者は、パラメータの値が決められている複数のボックスからいずれかを選択し、投影検知範囲を編集している。
 図13は、投影コンテンツを編集する態様を示した模式図その4である。図13に示されるように、投影コンテンツ中の投影検知範囲は、複数の領域に分割されていてもよい。図13において利用者は、分割された複数の領域から、表示すべき領域を選択している。
 図10から図13に示されるようにコンテンツの編集態様は様々であるが、本開示技術に係る情報処理プログラム200により実現される検知システムは、コンテンツを様々な態様で編集できてよい。
 なお、図10から13に示された態様は、本開示技術の実施態様の例を示したものにすぎず、本開示技術がどのように具現化できるかを示したものにすぎない。よって、図10から13を示すことにより、クレーム範囲を限定する意図はない。
 図14は、本開示技術を説明する参考図である。図14の上段は、検知センサ10が床に埋め込まれた場合の投影コンテンツを示している。図14の下段は、検知センサ10が壁に埋め込まれた場合の投影コンテンツを示している。図14の上段の場合も下段の場合も、いずれもプロジェクタ30の位置は同じである。このように投影コンテンツは、検知センサ10とプロジェクタ30との相対位置に応じて加工され、リアルタイムでの表示が可能である。図14は、可視化された検知範囲を外部端末の画面に表示している例を示している。   
 以上のとおり実施の形態1に係る情報処理プログラム200により実現される検知システムは上記構成を備えるため、必要なときに、目に見えない検知センサ10の検知範囲を実空間上に直接表示し可視化が可能である。このように本開示技術に係る情報処理プログラム200は新しいコンセプトの検知システムを提供し、製品の販売促進に寄与する。
実施の形態2.
 実施の形態2に係る情報処理プログラム200により実現される検知システムは、検知センサ10がカメラであるときに実現されるシステムである。具体的に実施の形態2に係る検知システムは、テレビ局などで使用されるカメラシステム、コンサート会場の撮影システム等に応用できる。実施の形態2で用いる符号は、意図して区別する場合を除き、実施の形態1と同じものが使用される。また実施の形態1と重複する説明は、適宜省略される。なお実施の形態2で用いる「検知」の用語は、「撮影」と読み替えてもよい。
 カメラは、検知範囲が明確に存在するセンサに分類される。検知センサ10がカメラの場合、検知範囲はカメラに映る3次元的な領域となる。カメラにより撮影される動画は、TV画面等の長方形に映し出される。このことから検知センサ10がカメラの場合、検知範囲は、四角錐から切り出された3次元形状である、と言える。なお、カメラに魚眼レンズ等の特殊レンズが用いられる場合、検知範囲は円錐等の他の3次元形状となることがある。
 検知センサ10がカメラの場合でも、すでにある人物を撮影している場合、その人物の後の領域は撮影されない。検知センサ10がカメラの場合の検知範囲は、仮想的にカメラから四角錐をなすように光が放射されていることをイメージすればよい。放射された光が撮影の対象物に照射されると、その後ろは影となり、光は届かない。撮影の対象物がある場合でも検知センサ10がカメラの場合、検知範囲は、四角錐から切り出された3次元形状である。
 検知センサ10がテレビ局などで使用されるカメラシステムのカメラである場合、センサ位置情報とセンサ姿勢情報は動的に変化する。センサ位置情報とセンサ姿勢情報とを定期的に取得する手段は、環境に固定された別のカメラが利用されてもよいし、ランドマークとレーザ変位計とを使う方式が利用されてもよいし、床面にセンサが埋め込まれていてもよい。また、センサ位置情報とセンサ姿勢情報とを取得する手段は、車輪にエンコーダが利用されてもよいし、GPSが利用されてもよい。また、カメラで撮影された画像の内容とあらかじめデータ化された環境の画像情報データとに基づいて、AIに代表される画像解析技術により検知範囲が推定されてもよい。さらにカメラがコンピュテーショナルフォトグラフィーの技術により3次元情報を再現し、環境の3次元マップとマッチングをするようにして、検知範囲が推定されてもよい。
 実施の形態2においてマップ情報変換部220は、四角錐から切り出された3次元形状である検知範囲を、マップ上の情報に変換する。前述のとおりマップ上の情報とは、マップ上にプロットが可能な情報である。四角錐から切り出された3次元形状である検知範囲は、点群により表すことが考えられる。例えば3次元マップは仮想的な空間を格子状の点により定義する。例えば、検知範囲に含まれる格子は、検知範囲内であることを示すフラグに1を立て、検知範囲が特定できるようにしてもよい。
 検知センサ10がテレビ局などで使用されるカメラシステムのカメラである場合、付加的情報は、カメラの識別番号すなわち俗に言う1カメ、2カメ、…の別、カメラの焦点位置、どのカメラがON AIRになっているかの情報、等が考えられる。
 実施の形態2において投影コンテンツ変換部230は、マップ上の情報を、付加的情報と関連づけて環境の中の一部分である投影面に投影できる2次元情報である投影コンテンツに変換する。実施の形態1で示された例と同様、実施の形態2においても投影面は、例えば床面であってよい。
 投影コンテンツ変換部230は、四角錐から切り出された3次元形状等である検知範囲を、投影面に投影変換する。例えば検知範囲が点群により表されている場合、投影コンテンツへの変換は、点群の各点をそれぞれ投影面へ投影変換すればよい。
 実施の形態2に係る検知システムは、目に見えないカメラの検知範囲を実空間上に直接表示し可視化する。検知範囲の可視化は、例えばカメラのON/OFF状態、カメラの焦点位置、といった付加的な情報をも表現して実現される。このため実施の形態2に係る検知システムは、カメラマン、アナウンサー、出演者、ディレクター、プロデューサー、製作者、といった者にとって効果的である。実施の形態2に係る検知システムの使用態様は、例えば新人研修、リハーサル、といった場面で効果を発揮する。
 実施の形態2に係る検知システムは、テレビ局などで使用されるカメラシステムのほか、コンサート会場の撮影システム等にも応用できる。また実施の形態2に係る検知システムは、テレビ局に限定することなく、一般消費者向けのカメラシステムにも応用できる。
 本開示技術に係る情報処理プログラム200及びこれにより実現される検知システムは、エレベータ、エスカレータ、自動扉、ゲート、移動ロボット、カメラシステム等に応用でき、産業上の利用可能性を有する。
 1 検知システム、10 検知センサ、20 処理回路、30 プロジェクタ、200 情報処理プログラム、210 受信部、220 マップ情報変換部、230 投影コンテンツ変換部、240 出力部。

Claims (7)

  1.  少なくとも1つの検知センサと、少なくとも1つのプロジェクタと、に接続され、前記検知センサが設置される環境の3次元マップを有するコンピュータで実行される情報処理プログラムであって、
     3次元情報である前記検知センサの検知範囲情報と、前記検知センサに関する付加的情報と、を受信する受信部と、
     前記検知範囲情報をマップ上の情報に変換するマップ情報変換部と、
     前記マップ上の情報を、前記付加的情報と関連づけて前記環境の中の一部分である投影面に投影できる投影コンテンツに変換する投影コンテンツ変換部と、
     前記投影コンテンツを前記プロジェクタへ出力する出力部と、の機能を備え、
     前記コンピュータは、外部からの指令を受け付け、
     前記指令に応じて、前記投影コンテンツが編集される
    情報処理プログラム。
  2.  前記指令は、前記コンピュータの操作端末からの操作を含む
    請求項1に記載の情報処理プログラム。
  3.  前記指令は、外部端末からの操作を含む
    請求項1に記載の情報処理プログラム。
  4.  前記指令は、前記投影コンテンツが投影された前記環境における動き又はジェスチャーによる操作を含む
    請求項1に記載の情報処理プログラム。
  5.  前記検知センサと、前記プロジェクタと、請求項1に記載の情報処理プログラムが実行される前記コンピュータと、から構成される検知システム。
  6.  前記検知センサは、人感センサである請求項5に記載の検知システム。
  7.  前記検知センサは、カメラである請求項5に記載の検知システム。
PCT/JP2021/030295 2021-08-19 2021-08-19 情報処理プログラム及び検知システム WO2023021640A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022507569A JP7098081B1 (ja) 2021-08-19 2021-08-19 検知システム
PCT/JP2021/030295 WO2023021640A1 (ja) 2021-08-19 2021-08-19 情報処理プログラム及び検知システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/030295 WO2023021640A1 (ja) 2021-08-19 2021-08-19 情報処理プログラム及び検知システム

Publications (1)

Publication Number Publication Date
WO2023021640A1 true WO2023021640A1 (ja) 2023-02-23

Family

ID=82356948

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/030295 WO2023021640A1 (ja) 2021-08-19 2021-08-19 情報処理プログラム及び検知システム

Country Status (2)

Country Link
JP (1) JP7098081B1 (ja)
WO (1) WO2023021640A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042759A (ja) * 1999-07-28 2001-02-16 Taisei Corp センサ設置条件の評価シミュレーション装置及び評価方法
JP2009010728A (ja) * 2007-06-28 2009-01-15 Olympus Corp カメラ設置支援装置
JP2009080514A (ja) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp センサ配置設計支援システム
JP2012213083A (ja) * 2011-03-31 2012-11-01 Secom Co Ltd 監視範囲検知装置
US20130201292A1 (en) * 2010-04-16 2013-08-08 Otto-Von Guericke-Universitat Magdeburg Device For Monitoring At Least One Three-Dimensional Safety Area
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法
JP2018163651A (ja) * 2017-03-24 2018-10-18 ナブテスコ株式会社 自動ドアセンサの検知エリアの提示方法および提示装置ならびに提示システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6075911B2 (ja) * 2012-09-27 2017-02-08 旭光電機株式会社 センサ検知領域確認システム、センサ検知領域確認装置、センサ検知領域確認プログラム及び検知領域表示補助装置
JP6184827B2 (ja) * 2013-10-03 2017-08-23 アルパイン株式会社 電子装置、ジェスチャー入力方法、及びプログラム
JP6866646B2 (ja) * 2017-01-16 2021-04-28 オムロン株式会社 センサ支援システム、端末、センサおよびセンサ支援方法
JP2019010704A (ja) * 2017-06-30 2019-01-24 Idec株式会社 照光表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042759A (ja) * 1999-07-28 2001-02-16 Taisei Corp センサ設置条件の評価シミュレーション装置及び評価方法
JP2009010728A (ja) * 2007-06-28 2009-01-15 Olympus Corp カメラ設置支援装置
JP2009080514A (ja) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp センサ配置設計支援システム
US20130201292A1 (en) * 2010-04-16 2013-08-08 Otto-Von Guericke-Universitat Magdeburg Device For Monitoring At Least One Three-Dimensional Safety Area
JP2012213083A (ja) * 2011-03-31 2012-11-01 Secom Co Ltd 監視範囲検知装置
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法
JP2018163651A (ja) * 2017-03-24 2018-10-18 ナブテスコ株式会社 自動ドアセンサの検知エリアの提示方法および提示装置ならびに提示システム

Also Published As

Publication number Publication date
JP7098081B1 (ja) 2022-07-08
JPWO2023021640A1 (ja) 2023-02-23

Similar Documents

Publication Publication Date Title
US10265858B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
US11321592B2 (en) Method and system for tracking an object-of-interest without any required tracking tag theron
US9747392B2 (en) System and method for generation of a room model
US10005639B2 (en) Sensors for conveyance control
JP5369175B2 (ja) 映像によるエレベータドアの検出装置および検出方法
CN104981757B (zh) 灵活的房间控制器
EP3037917B1 (en) Monitoring
KR100657915B1 (ko) 코너 검출 방법 및 코너 검출 장치
CN103929603A (zh) 图像投影设备、图像投影系统及控制方法
WO2019240208A1 (ja) ロボットおよびその制御方法、ならびにプログラム
US20180025232A1 (en) Surveillance
TWI520036B (zh) 物件偵測方法以及用於光學觸控系統的校正裝置
CN105308549A (zh) 信息处理装置、控制方法、程序和存储介质
US20210348927A1 (en) Information processing apparatus, information processing method, and recording medium
WO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2006268582A (ja) ジェスチャによる情報機器の制御方法および制御システム
WO2023021640A1 (ja) 情報処理プログラム及び検知システム
WO2023021639A1 (ja) 情報処理装置及び検知システム
CN114600067A (zh) 具有成像仪的控制装置的监督设置
KR20090061213A (ko) 촬상소자와 광원을 이용한 터치 좌표 인식 방법 및 이를이용한 터치스크린 시스템
KR101243848B1 (ko) 무인 크레인 후크의 각도 산출 장치
KR101984240B1 (ko) 동작 인식을 위한 자동 캘리브레이션 방법 및 시스템
JP7369375B1 (ja) 建築物又は土木構造物の管理支援システム
KR20190129551A (ko) 무인 이동체용 사물 유도 시스템 및 방법
KR101695727B1 (ko) 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022507569

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21954213

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE