WO2020203043A1 - 描画システム - Google Patents

描画システム Download PDF

Info

Publication number
WO2020203043A1
WO2020203043A1 PCT/JP2020/009690 JP2020009690W WO2020203043A1 WO 2020203043 A1 WO2020203043 A1 WO 2020203043A1 JP 2020009690 W JP2020009690 W JP 2020009690W WO 2020203043 A1 WO2020203043 A1 WO 2020203043A1
Authority
WO
WIPO (PCT)
Prior art keywords
article
path
obstacle
detected
unit
Prior art date
Application number
PCT/JP2020/009690
Other languages
English (en)
French (fr)
Inventor
良幸 田嶋
堅太 藤本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021511298A priority Critical patent/JPWO2020203043A1/ja
Publication of WO2020203043A1 publication Critical patent/WO2020203043A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G21/00Preparing, conveying, or working-up building materials or building elements in situ; Other devices or measures for constructional work
    • E04G21/14Conveying or assembling building elements
    • E04G21/16Tools or apparatus
    • E04G21/18Adjusting tools; Templates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • This application relates to a drawing system.
  • the drawing system is used for drawing using a drawing device, for example, before arranging equipment on the floor of a factory.
  • a drawing device for example, before arranging equipment on the floor of a factory.
  • the marking work is a work of measuring the relative position from the reference point and writing, but it involves a lot of man-hours and the position often shifts due to an error when reading by a person, an error when writing, misunderstanding, etc. It requires concentration.
  • a system has been proposed in which the coordinates for drawing a line are set on the screen in advance, and a drawing device is mounted on the vehicle so as to draw a line and controlled while moving to draw an image at a determined position ( Patent Document 1).
  • Patent Document 1 The drawing system proposed in Patent Document 1 is assumed to be used on a wide flat surface of a road or a factory, and requires advance preparation so that there are no obstacles before drawing. If there is an article that becomes a thing, it is configured to detect the article and stop it. In other words, in order to operate the drawing system and proceed with the drawing work, there is no choice but to eliminate obstacles in advance or stop the system when an obstacle is detected, and when the drawing system stops, to confirm the reason why it stopped. There was a problem that the work was delayed.
  • the present application discloses a technique for solving the above-mentioned problems, and an object of the present application is to provide a drawing system that facilitates drawing work as smoothly as possible.
  • a drawing storage device that stores identification information for identifying the article and period information for a period in which the article is installed as information on an article in the vicinity of the drawing work, and a drawing path setting for setting a drawing path.
  • a device a drawing device that draws on the drawing path set by the drawing path setting device, an article detection device that detects an article provided on the drawing path drawn by the drawing device, and an article detection device that detects an article.
  • the drawing procedure determining device for identifying the article based on the identification information stored in the drawing storage device and determining the procedure for the drawing operation classified according to the period information of the article, and the drawing.
  • a drawing control device that controls the drawing device based on a decision made by the treatment decision device is provided.
  • the article when an article is present in the drawing path, the article is detected and the treatment of the drawing work is determined according to the information of the period in which the article is placed, so that the drawing work is delayed.
  • the effect is that you can proceed without any problems.
  • FIG. 5 is a layout diagram showing an arrangement of equipment before the introduction of new equipment in the first embodiment. It is a layout plan diagram which shows the arrangement of the equipment after the introduction of the new equipment in Embodiment 1.
  • FIG. It is a figure which shows the drawing example at the time of introducing a new equipment in Embodiment 1.
  • FIG. It is a figure which shows the flowchart of the preparatory work for drawing by Embodiment 1.
  • FIG. It is a figure which shows the example of the coordinate management of the layout by Embodiment 1.
  • FIG. It is a figure which shows the registration example of the database which sets the drawing path by Embodiment 1.
  • FIG. It is a figure which shows the registration example of the master database of article by Embodiment 1.
  • FIG. It is a figure which shows the flowchart which determines the article detection and the type of article at the time of drawing operation by Embodiment 1.
  • FIG. It is a figure which shows the detection example of the article of a permanent arrangement by Embodiment 1.
  • FIG. It is a figure which shows the detection example of the article of temporary arrangement by Embodiment 1.
  • FIG. 5 is a diagram showing a flowchart of drawing work when an article does not exist in the drawing path in the first embodiment. It is a figure which shows the example which registers the route which performed the drawing work in the database in Embodiment 1.
  • FIG. It is a figure which shows the example of registering the residual drawing path which did not perform drawing work in the database by Embodiment 1.
  • FIG. It is a block diagram which shows the hardware structure of the drawing control apparatus in Embodiment 1.
  • FIG. It is a block diagram which shows the structure which includes the learning apparatus of Embodiment 2.
  • the drawing system of the present application is configured as shown in the block diagram of FIG. In the figure, the same reference numerals indicate the same or corresponding parts.
  • the drawing system 100 of the present application includes a drawing device 1, a drawing path setting device 2, a drawing control device 3, a drawing storage device 4, an article storage device 5, an article detection device 6, and a drawing treatment determination device 7 for drawing. ..
  • the drawing path setting device 2 sets an area (area having a predetermined line width and length) drawn by the drawing device 1.
  • the drawing control device 3 controls the drawing device 1 so as to draw according to the area set by the drawing path setting device 2. Further, the drawing storage device 4 stores the progress of the drawing work.
  • the article storage device 5 has a function of preliminarily storing information about various articles existing in the vicinity of the drawing area in order to cope with the case where an unexpected article is installed in the drawing path.
  • the information about the article is the identification information for identifying what the article looks like and the period information indicating the period during which the article is installed.
  • the identification information for example, image data representing the outer shape or identification information by a barcode is used.
  • the period information if the installation of the article is temporary and it is planned to move within a few hours, it is regarded as "temporary", and the object or building that always occupies the place.
  • the article detection device 6 has a function of detecting whether or not an article that becomes an obstacle exists in the direction in which drawing is advanced. Then, when it is detected that an article that becomes an obstacle exists, the identification information of the detected article is output to the article storage device 5 and the drawing control device 3. That is, the article detection device 6 is an external sensor that measures the surrounding environment and detects the position, distance, size, and the like of the article.
  • the article storage device 5 that receives the information that the article that becomes an obstacle is detected from the article detection device 6 collates the identification information of the article received from the article detection device 6 with the identification information of the stored article. The identification information of the corresponding article is extracted, and the period information of the corresponding article is combined with the identification information and output to the drawing treatment determination device 7 as the article information.
  • the drawing procedure determining device 7 receives the article information from the article storage device 5 and determines how to proceed with the drawing work. That is, when the detected article is an obstacle, if the obstacle can be moved in a short time, the drawing work is temporarily stopped and waits. If the obstacle is not moved for a long time, the drawing work of the area is skipped and the work is executed later as a replenishment work. Alternatively, if the obstacle is not planned to be moved, it is probable that the drawing work instruction was incorrect, so record the information that the drawing work is scheduled to be corrected and make a drastic review. Request.
  • the drawing procedure determination device 7 determines the procedure for such drawing work, and the determined content is sent to the drawing control device 3 to control the drawing task. Therefore, the drawing device 1, the drawing path setting device 2, the drawing control device 3, and the drawing storage device 4 are configured to operate the steady state of the drawing system 100, and the article storage device 5, the article detection device 6, and the article detection device 6 are configured.
  • the drawing procedure determination device 7 is configured to take measures when an article that becomes an obstacle in the drawing operation is detected.
  • FIG. 2 shows the configuration of the usage state of the drawing system 100 in the present application.
  • a moving drawing device 10 is shown as a specific configuration of the drawing device 1 shown in FIG.
  • the mobile drawing device 10 is, for example, a self-propelled automatic guided vehicle. Since the moving drawing device 10 is an automatic guided vehicle, it is necessary to accurately grasp the position of the moving drawing device 10. Therefore, an origin correction terminal device 20 that confirms while correcting the coordinate position of the moving drawing device 10 is required.
  • a sensor is used.
  • a server is used as the storage calculation terminal device 30, and a tablet PC is used as the display terminal device 40 for displaying the drawing result. That is, when the operator instructs the storage calculation terminal device 30 to start the work by using the display terminal device 40, the storage calculation terminal device 30 transmits a control signal to the moving drawing device 10, and the moving drawing device 10 Start moving and start drawing work.
  • the mobile drawing device 10 is, for example, a communication unit 11 which is a CPU, for example, a coordinate detection unit 12 which is a position detection sensor, for example, a light irradiation unit 13 which is a laser, for example, a reflected light detection unit 14 which is a condensing sensor, for example, a camera.
  • the light irradiation unit 13 is configured to irradiate the drawing path with light in order to measure the state of the traveling path, and to detect the reflected light with respect to the irradiation light indicating the state of the traveling path by the reflected light detecting unit 14. .. Further, the moving drawing device 10 is provided with a photographing unit 15 for photographing an obstacle, and the photographing unit 15 sends information that there is an obstacle in the traveling path to the storage calculation terminal device 30 by the reflected light detection unit 14. When the storage calculation terminal device 30 receives the communication of the determination result that the obstacle exists, the obstacle is photographed and the image data of the article is output.
  • the moving drawing device 10 includes a driving unit 16 for moving the moving drawing device 10 according to a movement instruction communicated from the storage calculation terminal device 30, a drawing unit 17 for drawing, and a contact detection unit 18.
  • the contact detection unit 18 is provided to stop the drawing work when an obstacle is a worker or the like, and the worker operates the contact detection unit 18 to perform the work in the middle.
  • the information that the stop is stopped is transmitted from the communication unit 11 to the storage calculation terminal device 30. That is, by providing the contact detection unit 18, when a contact from the outside is detected, the user interrupts the drawing, moves to the end coordinate of the drawing path, returns to the start coordinate, restarts the drawing, and interrupts the drawing due to the contact. Contact.
  • the user is contacted by displaying the image data of the article whose drawing is interrupted.
  • the system configurations of the mobile drawing device 10, the origin correction terminal device 20, the storage calculation terminal device 30, and the display terminal device 40 shown in FIG. 2 are as shown in FIG.
  • the communication unit 11 of the mobile drawing device 10 is configured to communicate with the origin correction terminal device 20 and the storage calculation terminal device 30.
  • the origin correction terminal detection unit 121 detects the origin correction terminal device 20, and the origin coordinate recognition unit 122 recognizes the detected coordinates of the origin correction terminal device 20.
  • the moving coordinate amount detecting unit 123 detects the traveling result by the driving unit 16.
  • the origin correction terminal device 20 includes a communication unit 21 that communicates with the mobile drawing device 10 and a coordinate reference unit 22 that serves as the origin for the position information of the mobile drawing device 10.
  • the storage calculation terminal device 30 includes a communication unit 31 that communicates with the mobile drawing device 10 and the display terminal device 40, and an information storage unit 32 that stores information related to drawing.
  • the information storage unit 32 is a drawing path that sets a path to be drawn.
  • Drawing record route database 322 that holds the route drawn by the drawing device 10 and image data of the article photographed by the photographing unit 15, drawing route setting database 321 and drawing results Remaining drawing route database 323 that holds the difference from the route database 322, obstacle master database 324 that holds obstacle information, and obstacle determination that determines the presence or absence of obstacles from the results detected by the reflected light detection unit 14.
  • Obstacle type determination unit 34 for determining whether or not an obstacle is included in the obstacle master database 324
  • Master and actual difference for determining the amount of difference between the permanent obstacle setting and the actual Calculation unit 35
  • modification for reflecting the calculation result of the master and actual difference calculation unit 35 in the drawing path
  • Drawing result processing unit for registering the results of the drawing path calculation unit 36 and drawing unit 17 in the drawing record path database 322.
  • a drawing result determination unit 38 for determining whether drawing is completed is provided.
  • the display terminal device 40 includes a display unit 41 that displays information communicated from the storage calculation terminal device 30.
  • the drawing system 100 of the first embodiment operates by executing a program installed in the storage calculation terminal device 30.
  • a program installed in the storage calculation terminal device 30.
  • L As an example of actual operation, as a drawing when the equipment B and the equipment C as shown in FIG. 5 are newly arranged between the equipment A and the pillar B as shown in FIG. 4, L as shown in FIG. An example of drawing a character-shaped diagram will be described.
  • step S1 the layout before work is managed by, for example, two-dimensional coordinates by drawing data of an electronic drawing using CAD.
  • step S1 coordinate information indicating the drawing path is set. That is, as the coordinate information, the drawing data of the electronic drawing of the diagram shown in FIG. 6 is expressed by two-dimensional coordinates.
  • the L-shaped line diagram portion of the coordinate information serves as the drawing path of the moving drawing device 10.
  • FIG. Although not shown in FIG.
  • the coordinates (0,0) are the coordinates on which the origin correction terminal device 20 is placed, and in this example, the coordinates (X, Y) are used as reference positions for the route drawn with respect to this position.
  • the positions of the articles represented as the pillar A, the pillar B, and the equipment A are shown. It also represents the relative coordinates at the four corners of the L-shaped diagram of the drawing path.
  • the unit of the coordinate interval (management mesh) can be arbitrarily determined.
  • one step of the movement of the moving drawing device 10 has a predetermined unit size of 10, and the length of the unit 10 is drawn each time one step is moved.
  • the drawing path starts at the coordinates (X + 20, Y), proceeds counterclockwise, and ends at the coordinates (X + 70, Y).
  • FIG. 9 shows an example in which the drawing path is registered in the drawing path setting database.
  • step S2 shown in FIG. 7 an image of the obstacle is taken.
  • equipment A, pillar A, and pillar B which can be permanent obstacles on the drawing path, are photographed.
  • the pallet A and the dolly A which are considered to be temporary obstacles, are photographed.
  • the processing is carried out based on the images taken from one direction, but a plurality of images may be taken for one obstacle.
  • step S3 the type of the obstacle is added to the image data of the photographed obstacle and registered in the obstacle master database.
  • the coordinate information is registered in step S4.
  • FIG. 10 shows an example of registration of the obstacle master database when steps S2 to S4 are performed.
  • step S5 the origin correction terminal is placed at the origin coordinates.
  • step S6 the drawing apparatus is driven.
  • step S7 the origin correction terminal device 20 and the moving drawing device 10 communicate with each other to acquire the current coordinates of the moving drawing device 10.
  • the moving drawing device 10 moves to the coordinates to be drawn by referring to the drawing path database. Therefore, the coordinates at which the drive is started may be anywhere.
  • FIG. 11 shows a flowchart from driving the moving drawing device 10 to moving to the drawing start coordinates to start the drawing operation and detecting an obstacle during drawing. As shown in FIG. 11, first, it is determined whether or not the current coordinates of the moving drawing apparatus 10 match the starting coordinates of the drawing path number to be operated next.
  • step S8 it is determined whether the current coordinates are the start coordinates (X + 20, Y) of the drawing path number 1. If they do not match, in step S8, the vehicle moves to the start coordinate of the next drawing route number by autonomous driving such as an automatic guided vehicle. In autonomous operation, light is emitted from the light irradiation unit to the destination for each step of movement, and if the reflected light detection unit detects the light reflected from the distance of the destination, it is determined that there is an obstacle. Move to the start coordinate of the next drawing path number while avoiding objects. In step S9, the presence or absence of an obstacle is determined at the start coordinates of the next drawing path number by the detection process.
  • the movement destination is set as the drawing path start coordinates one after another in step S10. That is, it moves with respect to (X + 10, Y) which is the start coordinate of the drawing path number 2. After that, the same process is repeated until no obstacle is detected. After the movement to the coordinates at which drawing is started is completed in this way, the drawing operation is started in step S11. In this example, it is assumed that there are no obstacles at the start coordinates (X + 20, Y) of the drawing path number 1, and the drawing operation is started from the drawing path number 1.
  • the presence or absence of an obstacle is determined by the detection process to see if the movement from the start coordinate to the end coordinate is possible for each drawing path number.
  • the end of the equipment A hangs on the coordinates (X, Y) of the drawing path because the position where the equipment A is placed at the time of arrangement is displaced will be described. Since there is no obstacle from the start coordinate (X + 20, Y) of the drawing path number 1 to the end point coordinate (X + 10, Y), it is determined that the moving drawing device 10 can be moved, and in step S12, the moving drawing device 10 is set to the end point of the drawing path number. Move to coordinates.
  • step S13 the end point is from the start coordinate of the path number.
  • step S14 the captured image data is transmitted from the moving drawing device 10 to the storage calculation terminal device 30 with the image data of the end point coordinates.
  • the storage calculation terminal device 30 uses the image data registered in the obstacle master database 324 and, for example, an image authentication technique in step S15 to add the image data of the end point coordinates to the image data of the obstacle.
  • the threshold value to be determined to be “included” can be arbitrarily set.
  • the image data of the equipment A is registered in the obstacle master database 324, it is determined in step S16 to be "included", and since the type is permanent, the obstacle at the end point coordinates is a permanent obstacle. Judge as a thing. The processing after determining that the obstacle is permanent will be described later.
  • step S18 the drawing operation is stopped and the image data of the obstacle is displayed on the display terminal. In this case, it is better to review from the preparatory work, so it is completed.
  • FIG. 14 shows a flowchart for examining correction of the drawing path when a permanent obstacle is detected.
  • step S19 image data of a permanent obstacle is displayed on the display terminal device 40.
  • step S20 the obstacle and the drawing data of the drawing path are displayed on the display terminal device 40.
  • the image data of the equipment A and the coordinate diagram shown in FIG. 8 are displayed.
  • step S21 the coordinates of the obstacle are specified on the drawing data based on the image data of the permanent obstacle.
  • the operator determines that the equipment A detected by the coordinates (X, Y) should be at the coordinates (X-10, Y) on the drawing data, and determines that the equipment A should be at the coordinates (X-10, Y).
  • the master and the actual difference calculation unit 35 are used to calculate the difference between the coordinates at which the permanent obstacle is detected and the coordinates of the obstacle specified on the drawing data in step S22.
  • the difference between the coordinates (X, Y) at which a permanent obstacle is detected and the coordinates (X-10, Y) specified in step S21 is calculated as (10, 0).
  • the drawing path reflecting the difference calculated in step S22 with respect to the drawing path set in the drawing path setting database 321 is corrected to the display terminal device 40 in step S23. It is displayed as a drawing route map with. In this case, as a result of reflecting (10, 0), it is displayed as shown in FIG.
  • the range that reflects the correction of the difference may be selected. That is, in the case of a "permanent" obstacle, by inputting and designating the obstacle to the drawing data, the difference between the coordinates that should be on the drawing data and the coordinates at which the obstacle is detected is slid. The drawing path will be presented as a correction plan.
  • step S24 determines whether to draw with the modified drawing path. If it is determined that the drawing work is to be performed, in step S25, the drawing path of the drawing path setting database is updated with the modified drawing path.
  • step S26 the drawing results are initialized by initializing the drawing record route database 322 and the remaining drawing route database 323 for the drawing order.
  • step S27 the process moves to the start coordinate of the modified drawing path number 1. After the movement, drawing is restarted by the process shown in FIG. If the correction is not implemented, it is better to review it from the preparatory work, so it is completed.
  • step S28 the movement is started toward the next drawing path start coordinate.
  • the movement is started to the start coordinates (X + 70, Y + 70) of the drawing path number 9. It is determined by performing obstacle detection processing whether it is possible to move to the start coordinate of the next drawing path number. If there are no obstacles, the process moves to the target drawing path start coordinates in step S29.
  • the route setting method for the avoidance behavior is not particularly specified, but for example, in the avoidance behavior from (X + 10, Y + 70) to (X + 70, Y + 70) in this case, an obstacle is detected every time one step is moved with respect to the shortest path. If an obstacle is detected, it bypasses the obstacle and tries to return to the shortest path from (X + 10, Y + 70) to (X + 10, Y + 80), (X + 20, Y + 80), (X + 30, Y + 80), (X + 30). , Y + 70), (X + 40, Y + 70), (X + 50, Y + 70), (X + 60, Y + 70), (X + 70, Y + 70).
  • step S30 the drawing path number capable of restarting drawing is determined by further switching the target to the start coordinate of the next drawing path number.
  • the start coordinates (X + 80, Y + 70) of the drawing path number 10 are the coordinates at which drawing can be resumed.
  • step S31 Stop evasive action. That is, if drawing cannot be restored within the time set in the drawing path when drawing is continued, drawing is performed with the message "Drawing was stopped because the time required for drawing is extended due to a temporary obstacle" in step S32. Display the figure showing the actual results and the image data of the obstacle. Display the drawing result on the terminal. Based on the display result on the display terminal, the operator decides whether to wait until the temporary obstacle disappears or to remove it manually. Meanwhile, in step S33, the moving drawing device 10 starts moving toward the coordinates of the drawing path number 1 which is the first drawing path. After the movement is completed, the drawing operation is repeated by the process shown in FIG.
  • FIG. 17 shows a flowchart for drawing without any obstacle at the end point coordinates of the drawing path number.
  • the drawing record route database 322 it is determined whether or not the drawing of the drawing route number has been performed. If it has not been performed, drawing is performed, and in step S34, the drawing result is notified to the storage calculation terminal device 30. If it has been performed, the drawing is not performed, and the drawing result of not drawing is notified to the storage calculation terminal device 30 in step S35.
  • the drawing operation route database 322 is referred to, and in step S36, the target of the drawing operation is switched to the next drawing route number. If there is a next drawing path number, the drawing operation is repeated by the process shown in FIG.
  • step S37 the drawing result and the image data of the temporary obstacle are displayed on the display terminal device 40.
  • step S38 the remaining drawing path database is referred to in order to determine whether all drawing has been completed for the set drawing path. If there is a drawing path number that has not been drawn, drawing is attempted again, so in step S39, the drawing path number 1 is moved to the start coordinate. At this time, the operator may decide whether to wait until the temporary obstacle disappears or to manually remove the obstacle based on the display result on the display terminal device 40.
  • FIG. 20 shows an example of data in the remaining drawing route database.
  • the drawing is interrupted and autonomous operation is performed to the end point coordinates of the final drawing path number.
  • the display terminal device 40 is notified that the drawing is interrupted due to the coordinates of the drawing path number at the time of contact and the contact of a dynamic obstacle.
  • the drawing result is notified in the same manner as when there is a drawing path number for which drawing has not been performed, and the drawing path number 1 is returned to restart drawing.
  • the moving drawing device 10 sets a mode in which only obstacle detection is performed without drawing even if the drawing path number has not been drawn in the drawing record route database. Set to have.
  • this mode for example, a test run of a planned drawing route is performed before drawing is started, and image data or identification information of an article that may become an obstacle and a period during which the article is installed can be obtained. By collecting the period information, it is possible to smoothly deal with obstacles in the drawing work.
  • by performing a test run it is possible to grasp in advance information on articles that are permanently arranged and equipment that is arranged at a misalignment, so that the amount of information processing can be reduced. Furthermore, obstacles can be removed in advance based on prior information.
  • the case where the image data of the article is used as the information for identifying the article has been taken up, but the device or the equipment is provided with a wireless tag, and the information of the article obtained from the tag is used.
  • efficient response becomes possible by setting the response to the article that has become an obstacle.
  • the drawing control device 3 described with reference to FIG. 1 is composed of a processor 310 and a storage device 320 as shown in FIG. 21 as an example of hardware.
  • the storage device 320 includes a volatile storage device such as a random access memory and a non-volatile auxiliary storage device such as a flash memory. Further, an auxiliary storage device of a hard disk may be provided instead of the flash memory.
  • the processor 310 executes the program input from the storage device 320. In this case, a program is input from the auxiliary storage device to the processor 310 via the volatile storage device. Further, the processor 310 may output data such as a calculation result to the volatile storage device of the storage device 320, or may store the data in the auxiliary storage device via the volatile storage device.
  • FIG. 21 is a block diagram showing a configuration when the learning device 50 is incorporated in the drawing treatment determination device 7.
  • the mobile drawing device 10 includes a communication unit 11 and a photographing unit 15 as shown in the first embodiment.
  • the storage calculation terminal device 30 includes a communication unit 31, an information storage unit 32, an obstacle presence / absence determination unit 33, an obstacle type determination unit 34, and a learned model storage unit 39.
  • the display terminal device 40 includes a display unit 41, a communication unit 42, and an article information input unit 43.
  • the learning device 50 includes a communication unit 51, a data acquisition unit 52, and a model generation unit 53.
  • the data acquisition unit 52 acquires the image data of the article photographed by the photographing unit 15 and the article information input by the article information input unit 43 with respect to the article information as learning data, and the model generation unit 53. Output to.
  • the model generation unit 53 learns the article photographed by the photographing unit 15 based on the learning data obtained by combining the article information output from the data acquisition unit 52 and the article information input from the article information input unit 43. .. That is, a learning model for inferring the article information of the article photographed by the photographing unit 15 is generated from the image data of the article photographed by the photographing unit 15 and the article information input by the article information input unit 43.
  • the learning data is data in which the image data of the article and the article information input by the article information input unit 43 are associated with each other.
  • the learning device and the inference device required to have the machine learning function are used to learn the article information input by the article information input unit 43, and these learning devices and the inference devices are, for example, ,
  • the device may be separate from the drawing procedure determining device 7 so as to be connected to the drawing procedure determining device 7 via the network. Further, the learning device and the inference device may exist on the cloud server.
  • the model generation unit 53 learns the article information input by the article information input unit 43 by so-called supervised learning according to, for example, a neural network model.
  • supervised learning refers to a method of learning features in those learning data by giving a set of input and result (label) data to a learning device, and inferring the result from the input.
  • a neural network is composed of an "input layer” consisting of a plurality of neurons, an “intermediate layer (hidden layer)” consisting of a plurality of neurons, and an “output layer” consisting of a plurality of neurons.
  • the intermediate layer may be one layer or two or more layers.
  • FIG. 22 shows a structural diagram of the neural network used.
  • a multi-layer perceptron (three-layer) neural network as shown here, when a plurality of inputs are input to the input layers (X1, X2, X3), the value is multiplied by the weight W1 (w11 to w16). It is input to the intermediate layer (Y1, Y2), and the result is further multiplied by the weight W2 (w21 to w26) to be output from the output layer (Z1, Z2, Z3). The output from this output layer changes depending on the values of the weights W1 and W2.
  • the neural network is so-called "supervised learning” according to the learning data created based on the combination of the image data of the article acquired by the data acquisition unit 52 and the article information input by the article information input unit 43. , The article information input by the article information input unit 43 is learned.
  • the neural network inputs the image data of the article photographed by the photographing unit 15 into the input layer, and weights the result output from the output layer so as to approach the article information input by the article information input unit 43. Learn by adjusting W1 and W2.
  • the model generation unit 53 generates and outputs a trained model by executing the above learning.
  • the trained model storage unit 39 stores the trained model output from the model generation unit 53.
  • FIG. 23 is a flowchart relating to the learning process of the learning device.
  • step S231 the data acquisition unit 52 acquires the image data of the article photographed by the photographing unit 15 and the article information input by the article information input unit 43.
  • the image data of the article photographed by the photographing unit 15 and the article information input by the article information input unit 43 are shown to be acquired at the same time, it is sufficient if the image data and the article information can be input in association with each other. , Image data and article information may be acquired at different timings.
  • step S232 the model generation unit 53 has learned and learned the image data captured by the photographing unit 15 by so-called supervised learning according to the learning data created based on the combination of the image data and the article information. Generate a model.
  • step S233 the trained model storage unit 39 stores the trained model generated by the model generation unit 53. Then, this procedure is completed.
  • FIG. 24 is a block diagram showing a configuration when the inference device 60 is incorporated in the drawing treatment determination device 7.
  • the inference device 60 includes a communication unit 61, a data acquisition unit 62, and an inference unit 63.
  • the data acquisition unit 62 acquires image data of the article photographed by the photographing unit 15 of the moving drawing device 10.
  • the inference unit 63 infers the article photographed by the photographing unit 15 by using the learned model of the learned model storage unit 39. That is, by inputting image data into the trained model in the data acquisition unit 62, it is possible to output the article information of the article inferred from the image data.
  • the corresponding article information is output using the trained model learned by the model generation unit 53 of the drawing procedure determining device 7, but it is learned from the outside of the drawing procedure determining device 7. It is also possible to acquire the finished model and output the article information corresponding to the image data of the article photographed by the photographing unit 15 based on the learned model.
  • step S251 the data acquisition unit 62 acquires image data of the article photographed by the photographing unit 15.
  • step S252 the inference unit 63 inputs image data into the trained model stored in the trained model storage unit 39, and obtains article information corresponding to the image data.
  • step S253 the inference unit 63 outputs the article information obtained by the learned model to the display terminal device 40 of the drawing procedure determination device 7.
  • step S254 the display terminal device 40 of the drawing procedure determination device 7 uses the image data to determine whether or not the article inferred to be applicable matches the name of the obstacle registered in the obstacle master database 324.
  • the determination is determined by the obstacle type determination unit 34 and displayed on the display unit 41 to notify the user of the determination content. For example, even if the article regarded as an obstacle is a dolly and the shape of the dolly is changed by modification after being registered as an obstacle, the dolly registered in the obstacle master database 324 is used. It can be inferred that there is, and the drawing operation can be controlled. That is, as shown in FIG. 11 of the first embodiment, the drawing operation is not interrupted because the image data of the obstacle does not correspond to the obstacle master database, but the judgment including the change of the situation is made. By doing so, it is possible to avoid interruption of the drawing operation, and it is possible to determine the drawing procedure according to the period information without additional work by the user.
  • the present invention is not limited to this.
  • the learning algorithm it is also possible to apply reinforcement learning, unsupervised learning, semi-supervised learning, etc. in addition to supervised learning.
  • the model generation unit 53 may learn the image data of the article photographed by the photographing unit 15 according to the learning data created for the plurality of drawing treatment determination devices 7.
  • the model generation unit 53 may acquire learning data from a plurality of drawing procedure determining devices 7 used in the same area, or may obtain learning data from a plurality of drawing procedure determining devices 7 that operate independently in different areas. Image data may be learned using the collected learning data.
  • the drawing treatment determination device 7 for collecting learning data can be added or removed from the target on the way. Further, a learning device that has learned the image data of the article photographed by the photographing unit 15 with respect to the drawing procedure determining device 7 is applied to another drawing procedure determining device 7, and the drawing procedure determining device 7 is applied to the other drawing procedure determining device 7. The article photographed by the photographing unit 15 may be relearned and updated.
  • deep learning which learns the extraction of the feature amount itself, can also be used, and other known methods such as genetic programming, functional ethics programming, and support can be used.
  • Machine learning may be performed according to a vector machine or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Warehouses Or Storage Devices (AREA)
  • Conveying And Assembling Of Building Elements In Situ (AREA)

Abstract

設備の配置前に描画を行う描画システムは、障害物の無い状態で使用されていたため、障害物が在ると使用できないという問題があった。このため、描画システムとして、近辺の物品の情報として物品を識別する識別情報と物品を設置する期間の期間情報とを保存している描画記憶装置(4)、描画経路を設定する描画経路設定装置(2)、描画経路設定装置(2)によって設定された描画経路に描画を行う描画装置(1)、描画装置(1)が描画する描画経路の上に設けられた物品を検知する物品検知装置(6)、物品検知装置(6)によって検知された物品を、描画記憶装置(4)に保存されている識別情報に基づいて特定し、物品の期間情報に応じて描画作業の処置を決定する描画処置決定装置(7)、および描画処置決定装置(7)による決定に基づいて描画装置(1)を制御する描画制御装置(3)を備えた。

Description

描画システム
 本願は、描画システムに関するものである。
 描画システムは、描画装置を使用して、例えば工場の床面に設備を配置する前の線引きに使用される。
 一般に、工場で設備等を配置する際には、床面にケガキと呼ばれる下書きを行ってから配置することで、配置時に位置がずれることを防ぐ。ケガキ作業は基準点からの相対位置を測って書いていく作業となるが、多大な工数を伴うと共に人の読み取り時の誤差、書き込み時の誤差、勘違い等で位置がずれることが多く、熟練度と集中力を要する。このため、予め、線を描く座標を画面上に設定し、線を描くように描画装置を車両に搭載して移動させながら制御して決められた位置に画像を描くシステムが提案されている(特許文献1)。
特許第4460029号公報
 この特許文献1に提案されている描画システムは、道路あるいは工場の広い平面で使用されることが想定されていて、描画を行う前に障害物などが無いように事前の準備を必要とし、障害物になるような物品があれば、物品を検知して停止するように構成されている。
 すなわち、描画システムを運転して描画作業を進めるには予め障害物を排除するか、障害物を検知するとシステムを停止させるしかなく、描画システムが停止した場合に、停止した理由の確認のために作業が遅延するという問題があった。
 本願は、前述の問題を解決する技術を開示するものであって、描画作業をできるだけ円滑に進める描画システムを提供することを目的とするものである。
 本願の描画システムでは、描画作業の近辺の物品の情報として前記物品を識別する識別情報と前記物品を設置する期間の期間情報とを保存している描画記憶装置、描画経路を設定する描画経路設定装置、前記描画経路設定装置によって設定された前記描画経路に描画を行う描画装置、前記描画装置が描画する前記描画経路の上に設けられた物品を検知する物品検知装置、前記物品検知装置によって検知された前記物品を、前記描画記憶装置に保存されている前記識別情報に基づいて特定し、前記物品の期間情報に応じて区分された描画作業の処置を決定する描画処置決定装置、および前記描画処置決定装置による決定に基づいて前記描画装置を制御する描画制御装置を備えている。
 本願によれば、描画経路に物品が存在している場合に、物品を検知し、物品の置かれる期間の情報に応じて描画作業の処置を決定するようにしているので、描画作業を遅延させることなく進めることができるという効果が得られる。
実施の形態1による描画システムの構成を示すブロック図である。 実施の形態1による描画システムの使用状態を示す構成図である。 実施の形態1による描画システムの機能構成を示す構成図である。 実施の形態1における、新規設備導入前の設備の配置を示すレイアウト図である。 実施の形態1における、新規設備導入後の設備の配置を示すレイアウト予定図である。 実施の形態1における、新規設備導入時の描画例を示す図である。 実施の形態1による、描画に向けた準備作業のフローチャートを示す図である。 実施の形態1による、レイアウトの座標管理の例を示す図である。 実施の形態1による、描画経路を設定するデータベースの登録例を示す図である。 実施の形態1による、物品のマスタデータベースの登録例を示す図である。 実施の形態1による、描画動作時に物品検出と物品の種類を判断するフローチャートを示す図である。 実施の形態1による、恒久的な配置の物品の検出事例を示す図である。 実施の形態1による、一時的な配置の物品の検出事例を示す図である。 実施の形態1による、恒久的な配置の物品の検出に対して描画経路の修正を行うフローチャートを示す図である。 実施の形態1において、恒久的に配置の物品の検出に対して描画経路の修正例における座標管理を示す図である。 実施の形態1において、一時的な配置の物品の検出に対して物品を回避するフローチャートを示す図である。 実施の形態1において、描画経路に物品が存在しない場合の描画作業のフローチャートを示す図である。 実施の形態1において、描画作業を行った経路をデータベースに登録する例を示す図である。 実施の形態1による、描画作業を行わなかった残描画経路をデータベースに登録する例を示す図である。 実施の形態1における描画制御装置のハードウエアの構成を示す構成図である。 実施の形態2の学習装置を備える構成を示すブロック図である。 実施の形態2に使用するニューラルネットワークの構造図である。 実施の形態2の学習処理のフローチャートである。 実施の形態3の推論装置を備える構成を示すブロック図である。 実施の形態3の推論処理のフローチャートである。
実施の形態1.
 本願の描画システムは、図1のブロック図に示すように構成されている。なお、図中、同一符号は各々同一または相当部分を示している。
 本願の描画システム100は、描画を行う描画装置1、描画経路設定装置2、描画制御装置3、描画記憶装置4、物品記憶装置5、物品検知装置6、及び描画処置決定装置7を備えている。
 描画経路設定装置2は、描画装置1によって描画される領域(予め定めた線幅と長さによる領域)を設定する。描画制御装置3は、描画経路設定装置2によって設定された領域の通りに描画するように描画装置1を制御する。さらに、描画記憶装置4は、描画作業の進捗状況を記憶している。
 物品記憶装置5は、描画経路に予期しない物品が設置されている場合に対応するため、描画する領域の近辺に存在する様々な物品についての情報を予め記憶する機能を備えている。物品についての情報(物品情報)とは、物品がどのようなものであるかを識別するための識別情報と、物品を設置している期間を表す期間情報である。識別情報としては、例えば、外形を表す画像データ、あるいはバーコードによる識別情報が使用される。また、期間情報としては、物品の設置が仮置きであって、数時間の内には移動する予定の物である場合には「一時的」とし、常時、その場を占有する物あるいは建造物のように移動できない物である場合には「恒久的」として区分された期間の情報であって、この期間情報と識別情報とが結びつけて保存されている。
 物品検知装置6は、描画を進めていく方向に障害物となる物品が存在するか否かを検知する機能を備えている。そして、障害物となる物品が存在することを検知した場合には、検知した物品の識別情報を物品記憶装置5および描画制御装置3に出力する。すなわち、物品検知装置6は、周囲の環境を計測して物品の位置、距離および大きさなどを検知する外界センサである。
 物品検知装置6から障害物となる物品を検知したとの情報を受け取った物品記憶装置5は、物品検知装置6から受け取った物品の識別情報と記憶している物品の識別情報とを照合することによって、該当する物品の識別情報を抽出し、該当する物品の期間情報を識別情報とを結び付けて物品情報として描画処置決定装置7に出力する。
 描画処置決定装置7は、物品検知装置6によって障害物となる物品が検知された場合、物品記憶装置5からの物品情報を受けて描画作業の進め方を決定する。すなわち、検知された物品が障害物である場合には、その障害物が短時間で移動させられるのであれば、一時的に描画作業を停止して待機する。また障害物が長時間移動されないものである場合には、その領域の描画作業を飛ばして後で補充作業として実行する。あるいは、障害物が移動させられる予定の無いものである場合には、描画作業の指示が誤りであったと考えられるので、描画作業の修正を予定する旨の情報を記録し、抜本的な見直しを要請する。
 このような描画作業の処置を描画処置決定装置7において決定し、その決定内容が描画制御装置3に送られて描画作業が制御される。
 したがって、描画装置1、描画経路設定装置2、描画制御装置3、及び描画記憶装置4は、描画システム100の定常状態を運営する構成となっており、物品記憶装置5、物品検知装置6、及び描画処置決定装置7は、描画作業において障害物となる物品を検知した場合の対応を行う構成となっている。
 本願における描画システム100の使用状態の構成を図2に示す。ここで図1に示した描画装置1の具体的な構成として移動描画装置10を示す。移動描画装置10は、例えば自走する無人搬送車である。移動描画装置10が無人搬送車であるため、移動描画装置10の位置を正確に把握する必要がある。このため、移動描画装置10の座標位置を補正しながら確認する原点補正端末装置20が必要になる。ここでは、センサを使用している。他に記憶演算端末装置30としてサーバ、描画結果を表示するための表示端末装置40として例えばタブレットPCを使用している。
 すなわち、操作する者が、表示端末装置40を使用して記憶演算端末装置30に作業の開始を指示すると、記憶演算端末装置30から移動描画装置10に制御信号が送信され、移動描画装置10は移動を開始して描画作業を開始する。
 移動描画装置10は、例えばCPUである通信部11、例えば位置検出センサである座標検出部12、例えばレーザである光照射部13、例えば集光センサである反射光検知部14、例えばカメラである撮影部15、例えば車輪である駆動部16、例えばスタンプである描画部17、例えば接触センサである接触検知部18を備え、移動と、描画作業と、障害物となる物品の検出とを行っている。
 光照射部13は、描画経路に対して進行経路の状態を測るために光を照射し、進行経路の状態を示す照射光に対する反射光を反射光検知部14によって検知するように構成されている。また、移動描画装置10には、障害物を撮影する撮影部15を備え、撮影部15は、反射光検知部14によって進行経路に障害物があることの情報が記憶演算端末装置30に送られ、記憶演算端末装置30から障害物が存在するとの判定結果の通信を受けた場合に障害物を撮影し、物品の画像データを出力する。また、移動描画装置10は、記憶演算端末装置30から通信された移動指示に従って移動描画装置10を移動させる駆動部16、描画をするための描画部17、及び接触検知部18を備えている。ここで、接触検知部18は、障害物が、作業員などの場合に、描画作業を停止させるために設けられているもので、作業者が接触検知部18を操作することによって作業を途中で停止したという情報を通信部11から記憶演算端末装置30に送信する。すなわち、接触検知部18を設けることによって、外部からの接触を検知すると、描画を中断し描画経路の終点座標へ移動した後に開始座標へ戻り描画を再開すると共に接触により描画を中断したことをユーザに連絡する。このユーザへの連絡は、描画を中断する対象となった物品の画像データを表示することによって行う。
 図2に示した移動描画装置10、原点補正端末装置20、記憶演算端末装置30、及び表示端末装置40のシステムの構成は図3に示すようになっている。
 移動描画装置10の通信部11は、原点補正端末装置20、記憶演算端末装置30と通信するように構成されている。原点補正端末検出部121は原点補正端末装置20を検出し、原点座標認識部122は検出した原点補正端末装置20の座標を認識する。移動座標量検出部123は駆動部16による走行結果を検出する。
 原点補正端末装置20は、移動描画装置10と通信する通信部21、移動描画装置10の位置情報に対して原点となる座標基準部22からなる。
 記憶演算端末装置30は、移動描画装置10および表示端末装置40と通信する通信部31、描画に関する情報を記憶する情報記憶部32を備え、情報記憶部32は描画すべき経路を設定した描画経路設定データベース321、描画すべき経路に対して実際に移動描画装置10が描画した経路と撮影部15で撮影した物品の画像データとを保持する描画実績経路データベース322、描画経路設定データベース321と描画実績経路データベース322との差分を保持する残描画経路データベース323、障害物の情報を保持する障害物マスタデータベース324、反射光検知部14で検知した結果から障害物の有無を判断する障害物の有無判定部33、障害物が有る場合に障害物マスタデータベース324に含まれるか判断する障害物の種類判定部34、恒久的な障害物の設定と現実の差分量を判断するためのマスタと現実の差分演算部35、マスタと現実の差分演算部35の演算結果を描画経路に反映するための修正描画経路算出部36、描画部17の実績を描画実績経路データベース322に登録するための描画実績処理部37、描画が完了したか判断するための描画実績判断部38を備えている。また、表示端末装置40は記憶演算端末装置30から通信された情報を表示する表示部41を備えている。
 この実施の形態1の描画システム100は、記憶演算端末装置30にインストールされているプログラムを実行することで動作する。
 実際の動作の事例として、図4に示すような設備Aと柱Bの間に、図5に示すような設備Bおよび設備Cを新たに配置する場合の描画として、図6に示すようなL字型の線図を描く場合の例を説明する。
 準備作業の手順は、図7に示したフローチャートのとおりである。
 例えば図4に示すように作業前のレイアウトを、CADを使用した電子図面の図面データによって、例えば2次元座標で管理する。ステップS1において、描画経路を示す座標情報を設定する。すなわち座標情報としては、図6に示している線図の電子図面の図面データを2次元座標によって表現している。この座標情報のうちL字型の線図の部分が、移動描画装置10の描画経路となる。レイアウトを2次元座標で表した例は、図8に示すようになる。図8には表れていないが、座標(0,0)が原点補正端末装置20を置く座標であって、この事例では座標(X,Y)が描画する経路の基準位置として、この位置に対して、柱A、柱B、及び設備Aとして表した物品の設置の位置を表している。また、描画経路のL字型の線図の四隅における相対座標を表している。座標の間隔の単位(管理メッシュ)は、任意に定めることができる。特に、この事例では移動描画装置10の移動の1スッテプが予め定めた単位の10の大きさを持ち、1ステップ移動をする度に単位10の長さを描画するものとして説明する。描画経路は、座標(X+20,Y)を始点とし、反時計回りに描画を進め、座標(X+70,Y)を終点とする。描画経路を描画経路設定データベースに登録した例を図9に示す。
 次に、図7に示すステップS2において、障害物の画像を撮影する。この事例では描画経路上で恒久的な障害物になり得る設備A、柱A,柱Bを撮影する。また、一時的な障害物になり得ると思われるパレットA及び台車Aを撮影する。この事例では一方向から撮った画像を基に処理を進めているが、1つの障害物に対して複数枚の画像を撮影しても良い。その後、ステップS3において、撮影した障害物の画像データに障害物の種類を加えて障害物マスタデータベースに登録する。その際に障害物の種類が恒久的な障害物である場合には、ステップS4において、座標情報を登録する。ステップS2からステップS4を実施した際の障害物マスタデータベースの登録例を図10に示す。
 次に、ステップS5において、原点補正端末を原点座標に置く。その後、ステップS6において、描画装置を駆動する。駆動後、ステップS7において、原点補正端末装置20と移動描画装置10が通信することで、移動描画装置10の現座標を取得する。移動描画装置10は、現座標を取得後に、描画経路データベースを参照して描画すべき座標まで移動する。したがって、駆動を開始する座標はどこであっても良い。
 移動描画装置10を駆動後、描画開始座標へ移動して描画動作を開始し、描画中に障害物を検出するまでのフローチャートを図11に示す。
 図11に示すように、まず、移動描画装置10の現在の座標が次に作業を行う描画経路番号の開始座標と一致するかどうかを判断する。この事例では、現在の座標が描画経路番号1の開始座標(X+20,Y)であるかを判断することになる。一致しなければ、ステップS8において、例えば無人搬送車のような自律運転で次の描画経路番号の開始座標へ移動する。自律運転では1ステップの移動毎に光照射部から光を移動先へ照射し、反射光検知部で移動先の距離から反射された光が検出されれば障害物があると判断することで障害物を回避しながら次の描画経路番号の開始座標へ移動する。ステップS9において、検出処理で次の描画経路番号の開始座標に障害物有無を判断する。この事例では描画経路番号1の座標(X+20,Y)に障害物がある場合は、ステップS10において、移動先を次々の描画経路開始座標とする。つまり、描画経路番号2の開始座標である(X+10,Y)を対象として移動する。以降は障害物が検出されなくなるまで同様の処理を繰り返す。こうして描画を開始する座標に移動完了後、ステップS11において、描画動作を開始する。この事例では、描画経路番号1の開始座標(X+20,Y)に障害物がないこととし、描画経路番号1から描画動作を開始する。
 描画動作を開始後は、描画経路番号毎に開始座標から終点座標へ移動可能か検出処理で障害物の有無を判断する。この事例では、図12に示すように、例えば設備Aが配置時に置いた位置がずれていたために、描画経路の座標(X,Y)に設備Aの端が掛かっている場合について説明する。
 描画経路番号1の開始座標(X+20,Y)から終点座標の(X+10,Y)へは障害物が無いので、移動可能と判断し、ステップS12において、移動描画装置10を当該描画経路番号の終点座標へ移動する。この事例では座標(X+10,Y)へ移動する。次に描画経路番号2の開始座標(X+10,Y)から終点座標の(X,Y)へは障害物が有るので、移動不可能と判断し、ステップS13において、当該経路番号の開始座標から終点座標を撮影する。撮影後、ステップS14において、撮影した画像データを移動描画装置10から記憶演算端末装置30に当該終点座標の画像データを送信する。記憶演算端末装置30は、画像データを受信後、ステップS15において、障害物マスタデータベース324に登録された画像データと例えば画像認証技術を用いて、障害物の画像データに当該終点座標の画像データが含まれているかを判断する。この時、「含む」と判断する閾値については任意に設定できるものとする。この事例では障害物マスタデータベース324に設備Aの画像データを登録しているので、ステップS16において、「含む」と判断し、種類は恒久的であるので当該終点座標の障害物は恒久的な障害物と判断する。恒久的な障害物と判断した後の処理は後述する。
 次に図13に示すように、例えば設備Aに供給する材料を載せた台車Aが座標(X+20,Y+70)に置かれていた場合を考える。描画経路番号8の開始座標(X+10,Y+70)から終点座標の(X+20,Y+70)へは障害物が有るので、移動不可能と判断しステップS12からステップS15を実施する。この事例では障害物マスタデータベース324に台車Aの画像データを登録しているので、ステップS17において、「含む」と判断し、種類は一時的であるので当該終点座標の障害物は一時的な障害物と判断する。一時的な障害物と判断した後の処理は後述する。
 検出した障害物が障害物マスタデータベース324に登録していない場合あるいは登録していても閾値を超えなかった場合は、作業者は画像データを基に障害物に対する処置を判断することになるため、ステップS18において、描画動作を中止し障害物の画像データを表示端末に表示する。この場合は準備作業から見直した方がよいため、完了とする。
 恒久的な障害物を検出した場合に描画経路の修正を検討するフローチャートを図14に示す。
 先ず、ステップS19において、表示端末装置40に恒久的な障害物の画像データを表示する。併せて、ステップS20において、表示端末装置40に障害物と描画経路の図面データとを表示する。この事例では、設備Aの画像データと図8に示した座標の図を表示する。次に、ステップS21において、恒久的な障害物の画像データを基に図面データ上で当該障害物の座標を指定する。この事例では作業者は、座標(X,Y)で検出した設備Aは、図面データ上の座標(X-10,Y)にあるべきものであると判断し、座標(X-10,Y)と指定する。
 次にマスタと現実の差分演算部35を用いて、ステップS22において、恒久的な障害物を検出した座標と図面データ上で指定した当該障害物の座標の差分を演算する。この事例では恒久的な障害物を検出した座標(X,Y)とステップS21において指定した座標(X-10,Y)の差分を(10,0)であると演算する。
 次に修正描画経路算出部36を用いて、描画経路設定データベース321に設定した描画経路に対してステップS22において演算した差分を反映した描画経路を、ステップS23において、表示端末装置40に差分の修正を施した描画経路図として表示する。この事例では(10,0)を反映した結果、図15のように表示する。この時、差分の修正を反映する範囲を選択できるようにしても良い。
 すなわち、「恒久的」な障害物の場合には、図面データに対して当該障害物を入力指定することで、図面データ上にあるべき座標と当該障害物を検出した座標との差分だけスライドさせた描画経路を修正案として提示することになる。
 次に作業者は、表示端末装置40を見て、ステップS24において、修正後の描画経路で描画するか実施判断をする。
 描画作業を実施すると判断すれば、ステップS25において、修正後の描画経路で、描画経路設定データベースの描画経路を更新する。描画経路設定データベースが更新されると、ステップS26において、当該描画オーダに対する描画実績経路データベース322、残描画経路データベース323を初期化することで、描画実績を初期化する。初期化後は、ステップS27において、修正した描画経路番号1の開始座標に移動する。移動後は図11に示す処理によって描画を再開する。修正を実施しない場合は、準備作業から見直した方がよいため、完了とする。
 一時的な障害物を検出した場合について、次に説明する。一時的な障害物の場合には、当該障害物を回避して次の描画経路番号から描画を継続することとする。このフローチャートを図16に示す。
 一時的な障害物の回避行動として、ステップS28において、次の描画経路開始座標に向けて移動を開始する。この事例では描画経路番号9の開始座標(X+70,Y+70)へ移動を開始する。次の描画経路番号の開始座標へ移動が出来るか障害物の検出処理をすることで判断する。障害物が無い場合は、ステップS29において、対象の描画経路開始座標へ移動する。回避行動の経路設定方法については特に指定しないが、例えばこの事例の(X+10,Y+70)から(X+70,Y+70)へ回避行動は、最短経路に対して1ステップ移動する毎に障害物を検出し、障害物を検出すれば当該障害物を回り込むように迂回して最短経路に戻ろうとすることで(X+10,Y+70)から(X+10,Y+80)、(X+20、Y+80)、(X+30,Y+80)、(X+30,Y+70)、(X+40,Y+70)、(X+50,Y+70)、(X+60,Y+70)、(X+70,Y+70)へと回避行動をしても良い。
 障害物を検出した場合は、ステップS13からステップS18の処理を実施し、恒久的な障害物であればステップS19からステップS27を実施する。また、一時的な障害物であれば、ステップS30において、更に次の描画経路番号の開始座標へ対象を切り替えることで、描画を再開できる描画経路番号を決定する。この事例では描画経路番号10の開始座標(X+80,Y+70)が描画を再開できる座標となる。
 回避行動の経路上に再度障害物があれば回避経路が級数的に伸びていき、回避行動に時間を要することから、任意に設定した規定時間内に回避行動が完了できなければ、ステップS31において、回避行動を中止する。すなわち、描画を継続した場合に、描画経路に設定した時間内に復旧できない場合は、ステップS32において、「一時的な障害物により描画の所要時間が伸びるため描画を中止しました」のメッセージと共に描画実績を示す図と障害物の画像データを表示端末に描画結果を表示する。作業者は、表示端末への表示結果を基に、一時的な障害物が無くなるまで待つか手動で取り除くか判断する。その間、ステップS33において、移動描画装置10は、最初の描画経路である描画経路番号1の座標へ向けて移動を開始する。移動完了後は、図11で示す処理によって描画動作を繰り返す。
 当該描画経路番号の終点座標に障害物が無く描画をする際のフローチャートを図17に示す。描画実績経路データベース322を参照して、当該描画経路番号の描画が実施済か判断する。実施済で無ければ描画をし、ステップS34において、描画実績を記憶演算端末装置30へ通知する。実施済であれば描画はせず、描画をしなかったことの描画実績を、ステップS35において、記憶演算端末装置30へ通知する。その後、描画実績経路データベース322を参照し、ステップS36において、次の描画経路番号に描画動作の対象を切り替える。次の描画経路番号があれば図11に示す処理によって描画動作を繰り返す。次の描画経路番号が無ければ、ステップS37において、表示端末装置40に描画実績と一時的な障害物の画像データを表示する。次に設定されている描画経路に対して描画が全て完了しているか判断するため、ステップS38において、残描画経路データベースを参照する。描画をしていない描画経路番号があれば再度描画を試みるため、ステップS39において、描画経路番号1の開始座標へ移動する。この時、作業者は、表示端末装置40への表示結果を基に、一時的な障害物が無くなるまで待つか、必要に応じて手動で取り除くか判断しても良い。
 この事例で示した座標(X+20,Y+70)に一時的な障害物として台車Aが有り回避行動を取り、回避行動が規定時間内に完了し、その他の描画経路番号が描画出来た場合の描画実績経路データベースのデータ例を図18に示す。また、残描画経路データベースのデータ例を図20に示す。
 例えば作業者のような動的な障害物に対して、描画動作途中に移動描画装置10の接触検知部18が検知した場合は、描画を中断して最終の描画経路番号の終点座標へ自律運転により移動のみをすると共に、接触した時点における描画経路番号の座標と動的な障害物の接触により描画を中断したことを表示端末装置40へ通知する。最終描画経路番号の終点座標へ移動後、描画が未実施の描画経路番号が存在する場合と同様に描画実績を通知し、描画経路番号1に戻って描画を再開する。
 移動描画装置10は、モードを任意に切替えて設定することによって、描画実績経路データベースにおいて描画経路番号に対する描画が実施済でなくても描画をせずに、障害物の検出のみを実施するモードを有するように設定する。このモードを活用することによって、例えば描画を開始する前に描画予定経路を試走行して、障害物となる可能性のある物品の画像データすなわち識別情報と、物品が設置されている期間についての期間情報とを収集することによって描画作業における障害物への対応を円滑に行うことができる。また、試走行することによって、恒久的に配置されている物品および、位置ずれで配置されている設備の情報を事前に把握することができるので、情報処理量を削減することができる。さらに事前情報に基づいて、障害物を事前に取り除くことが出来る。
 なお、実施の形態1の説明において、物品を識別するための情報として、物品の画像データを用いる場合を取り上げたが、装置あるいは設備に無線タグを設け、タグから得られる物品の情報を使用することによって、障害物となった物品への対応を設定することによって効率の良い対応が可能になる。
 なお、図1において説明している描画制御装置3は、ハードウエアの一例を図21に示すように、プロセッサ310と記憶装置320から構成される。記憶装置320の詳細は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ310は、記憶装置320から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ310にプログラムが入力される。また、プロセッサ310は、演算結果等のデータを記憶装置320の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
実施の形態2.
 次に、描画処置決定装置7に機械学習機能を持たせる場合について説明する。図21は描画処置決定装置7において、学習装置50を組み込む場合の構成を示すブロック図である。移動描画装置10は、実施の形態1に示したと同様に、通信部11、撮影部15を備える。記憶演算端末装置30は、通信部31、情報記憶部32、障害物の有無判断部33、障害物の種類判定部34、および学習済モデル記憶部39を備える。表示端末装置40は、表示部41、通信部42、および物品情報入力部43を備える。学習装置50は、通信部51、データ取得部52、およびモデル生成部53を備える。
 データ取得部52は、撮影部15によって撮影された物品の画像データと、前記物品情報に対して、物品情報入力部43において入力された物品情報とを学習用データとして取得し、モデル生成部53に出力する。
 モデル生成部53は、データ取得部52から出力された物品情報、および物品情報入力部43から入力された物品情報の組合せによる学習用データに基づいて、撮影部15によって撮影された物品を学習する。すなわち、撮影部15によって撮影された物品の画像データと物品情報入力部43で入力された物品情報とによって、撮影部15によって撮影された物品の物品情報を推論する学習モデルを生成する。ここで、学習用データは物品の画像データと物品情報入力部43で入力された物品情報とを互いに関連付けたデータである。
 なお、機械学習機能を持たせる場合に必要な学習装置および推論装置は、物品情報入力部43で入力された物品情報を学習するために使用されるが、これらの学習装置および推論装置は、例えば、ネットワークを介して描画処置決定装置7に接続されるように、描画処置決定装置7とは別個の装置であってもよい。また、学習装置および推論装置は、クラウドサーバ上に存在していてもよい。
 モデル生成部53が用いる学習アルゴリズムは、「教師あり学習」、「教師なし学習」、「強化学習」等の公知のアルゴリズムを用いることができる。一例として、ニュートラルネットワークを適用した場合について説明する。
 モデル生成部は、例えば、ニューラルネットワークモデルに従って、いわゆる教師あり学習により、物品情報入力部43で入力された物品情報を学習する。ここで、教師あり学習とは、入力と結果(ラベル)のデータの組を学習装置に与えることで、それらの学習用データにある特徴を学習し、入力から結果を推論する手法をいう。
 ニューラルネットワークは、複数のニューロンからなる「入力層」、複数のニューロンからなる「中間層(隠れ層)」、および複数のニューロンからなる「出力層」で構成される。中間層は、1層、又は2層以上でもよい。
 例えば、図22に使用するニューラルネットワークの構造図を示している。ここに示すような多層パーセプトロン(3層)のニューラルネットワークであれば、複数の入力が入力層(X1、X2、X3)に入力されると、その値に重みW1(w11からw16)を掛けて中間層(Y1、Y2)に入力され、その結果にさらに重みW2(w21からw26)を掛けて出力層(Z1、Z2、Z3)から出力される。この出力層からの出力は、重みW1とW2の値によって変わる。
 本願において、ニューラルネットワークは、データ取得部52によって取得される物品の画像データと物品情報入力部43で入力された物品情報との組合せに基づいて作成される学習用データに従って、いわゆる「教師あり学習」により、物品情報入力部43で入力された物品情報を学習する。
 すなわち、ニューラルネットワークは、入力層に撮影部15によって撮影された物品の画像データを入力して、出力層から出力された結果が、物品情報入力部43で入力された物品情報に近づくように重みW1とW2を調整することで学習する。
 モデル生成部53は、以上のような学習を実行することで学習済モデルを生成し、出力する。学習済モデル記憶部39は、モデル生成部53から出力された学習済モデルを記憶する。
 次に図23を用いて、学習装置が学習する処理について説明する。図23は、学習装置の学習処理に関するフローチャートである。
 ステップS231において、データ取得部52は、撮影部15によって撮影された物品の画像データ、および物品情報入力部43で入力された物品情報を取得する。なお、撮影部15によって撮影された物品の画像データと、物品情報入力部43で入力された物品情報とを同時に取得するように表しているが、画像データと物品情報とを関連づけて入力できれば良く、画像データと物品情報とをそれぞれ別のタイミングで取得しても良い。
 ステップS232において、モデル生成部53は、画像データと物品情報との組み合わせに基づいて作成された学習用データに従って、いわゆる教師あり学習により、撮影部15によって撮影された画像データを学習し、学習済モデルを生成する。
 ステップS233において、学習済モデル記憶部39は、モデル生成部53が生成した学習済モデルを記憶する。そしてこの手順を完了とする。
実施の形態3.
 次に、描画処理決定装置7に、推論機能を備える場合の構成について説明する。
 図24は描画処置決定装置7に推論装置60を組み込む場合の構成を示すブロック図である。推論装置60は、通信部61、データ取得部62、推論部63を備えている。
 データ取得部62は、移動描画装置10の撮影部15によって撮影された物品の画像データを取得する。推論部63は、学習済モデル記憶部39の学習済モデルを利用して、撮影部15によって撮影された物品を推論する。すなわち、学習済モデルにデータ取得部62において、画像データを入力することで、画像データから推論される物品の物品情報を出力することができる。
 なお、本実施の形態では、描画処置決定装置7のモデル生成部53で学習した学習済モデルを用いて該当する物品情報を出力するものとして説明したが、描画処置決定装置7の外部等から学習済モデルを取得し、この学習済モデルに基づいて撮影部15によって撮影された物品の画像データに対応する物品情報を出力するようにしてもよい。
 次に、図25を用いて、推論装置60を使って撮影部15からの画像データに対応する物品情報を得るための推論処理を説明する。
 ステップS251において、データ取得部62は、撮影部15によって撮影された物品の画像データを取得する。次に、ステップS252において、推論部63は、学習済モデル記憶部39に記憶された学習済モデルに画像データを入力し、画像データに対応する物品情報を得る。そして、ステップS253において、推論部63は、学習済モデルにより得られた物品情報を描画処置決定装置7の表示端末装置40に出力する。
 ステップS254において、描画処置決定装置7の表示端末装置40は、画像データを用いて、該当すると推論された物品について、障害物マスタデータベース324に登録された障害物の名称と一致するか否かの判定を、障害物の種類判定部34において判断すると共に表示部41に表示してユーザに判断内容を通知する。
 例えば、障害物とされた物品が台車であって、障害物として登録された後に、台車の形状が改造により変更されているような場合においても、障害物マスタデータベース324に登録されている台車であると推論して、描画動作を制御することができる。すなわち、実施の形態1の図11において示したように、障害物の画像データが障害物マスタデータベースに該当する画像データが無いとして描画動作を中断するのではなく、状況の変化を含めた判断を行うことによって、描画動作の中断を回避することができ、ユーザの追加作業を無くして期間情報に応じた描画処置を決定することが可能となる。
 なお、本実施の形態では、モデル生成部が用いる学習アルゴリズムに教師あり学習を適用した場合について説明したが、これに限られるものではない。学習アルゴリズムについては、教師あり学習以外にも、強化学習、教師なし学習、又は半教師あり学習等を適用することも可能である。
 また、モデル生成部53は、複数の描画処置決定装置7に対して作成される学習用データに従って、撮影部15によって撮影された物品の画像データを学習するようにしても良い。なお、モデル生成部53は、同一のエリアで使用される複数の描画処置決定装置7から学習用データを取得しても良いし、異なるエリアで独立して動作する複数の描画処置決定装置7から収集される学習用データを利用して画像データを学習してもよい。また、学習用データを収集する描画処置決定装置7を途中で追加することあるいは、対象から除去することが可能である。さらに、ある描画処置決定装置7に関して撮影部15によって撮影された物品の画像データを学習した学習装置を、これとは別の描画処置決定装置7に適用し、当該別の描画処置決定装置7に関して撮影部15によって撮影された物品を再学習して更新するようにしてもよい。
 また、モデル生成部53に用いられるアルゴリズムとしては、特徴量そのものの抽出を学習する、深層学習(Deep Learning)を用いることもでき、他の公知の方法、例えば遺伝的プログラミング、機能倫理プログラミング、サポートベクターマシンなどに従って機械学習を実行してもよい。
 本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1 描画装置、2 描画経路設定装置、3 描画制御装置、4 描画記憶装置、5 物品記憶装置、6 物品検知装置、7 描画処置決定装置、10 移動描画装置、11、31、42、61 通信部、12 座標検出部、13 光照射部、14 反射光検知部、15 撮影部、16 駆動部、17 描画部、18 接触検知部、20 原点補正端末装置、30 記憶演算端末装置、40 表示端末装置、50 学習装置、60 推論装置、100 描画システム

Claims (11)

  1.  物品を識別する識別情報と前記物品を設置する期間の期間情報とを保存している描画記憶装置、描画経路を設定する描画経路設定装置、前記描画経路設定装置によって設定された前記描画経路を走行する描画装置、前記描画装置が走行する前記描画経路の上に設けられた物品を検知する物品検知装置、前記物品検知装置によって検知された前記物品を、前記描画記憶装置に保存されている前記識別情報に基づいて特定し、前記物品の前記期間情報に応じて区分された描画の処置を決定する描画処置決定装置、および前記描画処置決定装置による決定に基づいて前記描画装置を制御する描画制御装置を備えた描画システム。
  2.  前記描画経路が座標情報によって与えられた描画経路であって、前記物品検知装置が外界センサであることを特徴とする請求項1に記載の描画システム。
  3.  前記描画処置決定装置において決定される描画の処置が、前記物品の期間情報の「恒久的」と「一時的」に区分して扱われていることを特徴とする請求項1に記載の描画システム。
  4.  前記物品の期間情報が「一時的」であれば、前記物品を回避して描画を継続するようにしたことを特徴とする請求項3に記載の描画システム。
  5.  前記物品の期間情報が「恒久的」であれば、描画を中断して、対象となった物品の画像データを表示することを特徴とする請求項3に記載の描画システム。
  6.  「恒久的」な物品が描画経路にある場合に、図面データ上にあるべき座標と当該物品を検出した座標との差分だけスライドさせた描画経路を修正案とすることを特徴とする請求項3に記載の描画システム。
  7.  前記回避して描画を継続した場合に、前記描画経路に設定した時間内に復旧できない場合は、前記描画経路の終点座標へ移動した後に開始座標へ移動し、描画を再開することを特徴とする請求項4に記載の描画システム。
  8.  前記描画装置は接触検知部を備え、外部からの接触を検知すると、描画を中断するようにしたことを特徴とする請求項1に記載の描画システム。
  9.  前記描画装置は、前記描画経路を走行して描画をせずに、障害物の検出のみを実施するモードを有することを特徴とする請求項1に記載の描画システム。
  10.  前記描画処置決定装置の前記物品検知装置によって検出された前記識別情報と、前記描画処置決定装置で検知された物品の特定情報とを含む学習用データを取得するデータ取得部と、前記学習用データを用いて、前記描画処置決定装置の前記物品検知装置によって検出された前記識別情報から前記描画処置決定装置で検知された物品を推論するための学習済モデルを生成するモデル生成部とを有する学習装置を備えたことを特徴とする請求項1に記載の描画システム。
  11.  前記描画処置決定装置の前記物品検知装置によって検出された前記識別情報を取得するデータ取得部と、前記物品検知装置によって検出された前記識別情報から前記描画処置決定装置で検知された物品を推論するための学習済モデルを用いて、前記データ取得部から入力された前記物品検知装置によって検出された前記識別情報から前記描画処置決定装置で検知された物品を出力する推論部とを有する推論装置を備えたことを特徴とする請求項1に記載の描画システム。
PCT/JP2020/009690 2019-04-03 2020-03-06 描画システム WO2020203043A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021511298A JPWO2020203043A1 (ja) 2019-04-03 2020-03-06 描画システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-071065 2019-04-03
JP2019071065 2019-04-03

Publications (1)

Publication Number Publication Date
WO2020203043A1 true WO2020203043A1 (ja) 2020-10-08

Family

ID=72668341

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/009690 WO2020203043A1 (ja) 2019-04-03 2020-03-06 描画システム

Country Status (2)

Country Link
JP (1) JPWO2020203043A1 (ja)
WO (1) WO2020203043A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0373004A (ja) * 1989-08-14 1991-03-28 Honda Motor Co Ltd 自走型作業ロボット
JPH05108144A (ja) * 1991-10-17 1993-04-30 Mitsubishi Electric Corp 自走ロボツト
JP2001289638A (ja) * 2000-04-11 2001-10-19 Sumitomo Densetsu Corp 自走式作業装置
JP4460029B2 (ja) * 2007-10-31 2010-05-12 株式会社技工社 車両型描画装置
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0373004A (ja) * 1989-08-14 1991-03-28 Honda Motor Co Ltd 自走型作業ロボット
JPH05108144A (ja) * 1991-10-17 1993-04-30 Mitsubishi Electric Corp 自走ロボツト
JP2001289638A (ja) * 2000-04-11 2001-10-19 Sumitomo Densetsu Corp 自走式作業装置
JP4460029B2 (ja) * 2007-10-31 2010-05-12 株式会社技工社 車両型描画装置
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法

Also Published As

Publication number Publication date
JPWO2020203043A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
US10328578B2 (en) Methods and systems for detecting, recognizing, and localizing pallets
CN110312912B (zh) 车辆自动停车系统和方法
CN110974088B (zh) 扫地机器人控制方法、扫地机器人及存储介质
JP6854840B2 (ja) 地図構築装置及びその地図構築方法
CN111091200A (zh) 训练模型的更新方法、系统、智能体、服务器及存储介质
JP2020097393A (ja) 飛行体の飛行管理システム
CN106485198A (zh) 使用全光摄像机自主代客停车的系统和方法
CN107578200B (zh) 基于agv的控制方法、装置及计算机可读存储介质
US20200264625A1 (en) Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle
KR20190003969A (ko) 로봇 차량들의 국부화
CN110858098A (zh) 使用人-机器人交互的自驱动移动机器人
US20240045423A1 (en) Systems and methods for monitoring a self-driving vehicle
US20210397188A1 (en) Moving body, control method for moving body, and program
JP2004005593A (ja) 自律移動装置
WO2020203043A1 (ja) 描画システム
JP6686705B2 (ja) 管理システム、管理方法および情報処理装置
CN110816522A (zh) 车辆姿态的控制方法、设备及计算机可读存储介质
CN110722548A (zh) 机器人控制系统、机器人装置以及存储介质
US11551379B2 (en) Learning template representation libraries
KR101055282B1 (ko) 계층 구조적 예측 모델을 이용한 로봇의 상황예측장치 및 그 방법
CN113932825A (zh) 机器人导航路径宽度获取系统、方法、机器人及存储介质
JP2018141716A (ja) 位置推定装置、制御方法、及びプログラム
JP7285517B2 (ja) 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
WO2019188282A1 (ja) サーバ装置、情報処理方法、プログラム及び記憶媒体
JP2019053462A (ja) ランドマーク選定方法及びランドマーク選定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20782174

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511298

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20782174

Country of ref document: EP

Kind code of ref document: A1