WO2019049624A1 - 空間認識装置、空間認識方法、プログラム - Google Patents
空間認識装置、空間認識方法、プログラム Download PDFInfo
- Publication number
- WO2019049624A1 WO2019049624A1 PCT/JP2018/030359 JP2018030359W WO2019049624A1 WO 2019049624 A1 WO2019049624 A1 WO 2019049624A1 JP 2018030359 W JP2018030359 W JP 2018030359W WO 2019049624 A1 WO2019049624 A1 WO 2019049624A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- reflected light
- distribution
- analysis unit
- reflection
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/74—Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Definitions
- the present invention relates to a space recognition apparatus, a space recognition method, and a program.
- Patent Literatures 1 and 2 disclose techniques for analyzing the reflected light of the irradiated light in order to recognize the position of a moving object moving in a certain space.
- this invention aims at providing the space recognition apparatus which can solve the above-mentioned subject, the space recognition method, and a program.
- the space recognition apparatus emits light from an optical device that receives the reflected light obtained by irradiating the light to the reflection plate provided on the movable body located in the detection range. Reflected light information obtained based on the reflected light according to the direction is acquired, and the state of the movable body provided with the reflecting plate is analyzed based on the distribution of the reflected light information at each coordinate of the detection range And an analysis unit.
- the space recognition method comprises irradiating the light from an optical device that receives reflected light obtained by irradiating the light to a reflection plate provided on a movable body located in a detection range. Reflected light information obtained based on the reflected light according to the direction is acquired, and the state of the movable body provided with the reflecting plate is analyzed based on the distribution of the reflected light information at each coordinate of the detection range It is characterized by
- the program causes the computer of the space recognition apparatus to receive light reflected from the reflection plate provided on the movable body located in the detection range. Acquiring the reflected light information obtained based on the reflected light according to the irradiation direction of the light, and moving the reflection plate provided based on a distribution of the reflected light information at each coordinate of the detection range It is characterized in that processing for analyzing the state of the body is executed.
- the position of a carrier or a mobile body such as an object carried by the carrier and mobile bodies thereof It is possible to easily and inexpensively recognize the quality of work based on the movement of the carrier
- FIG. 1 shows an overview of a space recognition system according to an embodiment of the present invention. It is a figure which shows the hardware constitutions of the space recognition apparatus by one Embodiment of this invention.
- FIG. 2 is a functional block diagram of a space recognition apparatus according to an embodiment of the present invention. It is a figure which shows the processing flow of the space recognition apparatus by one Embodiment of this invention. It is a figure which shows the specific example of the sensing information by one Embodiment of this invention. It is a figure which shows calculation outline of a coordinate of a mobile by one embodiment of the present invention. It is a figure which shows the 1st modification of the reflecting plate by one Embodiment of this invention. It is a figure which shows the 2nd modification of the reflecting plate by one Embodiment of this invention.
- FIG. 1 is a diagram showing a minimum configuration of a space recognition apparatus according to an embodiment of the present invention.
- FIG. 1 is a view showing an outline of a space recognition system including a forklift equipped with a space recognition device according to the same embodiment.
- the forklift 10 illustrated in FIG. 1 is an example of a moving body that moves in a space in which various objects are placed and a large number of stationary structures are arranged in the same pattern.
- the forklift 10 transports a load such as a container 20 placed in a space in which the forklift 10 can move.
- the forklift 10 is provided with a reflection plate R1.
- a reflective plate R2 is provided to a load such as the container 20 which the forklift 10 transports.
- the reflecting plate R1, the reflecting plate R2, etc. are collectively referred to as a reflecting plate R.
- a reflector R may be provided for each of the plurality of containers 20.
- the stationary structure disposed in the space is, for example, a pillar or a wall.
- the radar device 2 in the space recognition system 100, the radar device 2 is provided, for example, in a prismatic or cylindrical column.
- the radar device 2 in FIG. 1 shows the radar devices of the radar devices 2a, 2b and 2c.
- the radar devices 2a, 2b and 2c are collectively referred to as a radar device 2.
- the radar device 2 may be attached to a plurality of stationary structures such as a plurality of columns and walls.
- the radar device 2 is communicably connected to the space recognition device 1 via a communication network.
- the radar device 2 emits light into space based on the control of the space recognition device 1 and receives reflected light from the reflection position of the light.
- the radar device 2 includes, for example, a sensor, and outputs the intensity (received light intensity) of the reflected light received by the light receiving element of the sensor.
- the received light intensity of the reflected light reflected by the reflecting plate R and received by the radar device 2 is stronger than the received light intensity of the reflected light reflected by the radar device 2 at a position other than the reflecting plate R.
- the radar device 2 emits light to each reflection position corresponding to each pixel obtained by finely dividing the image plane in the detection range.
- the radar device 2 outputs to the space recognition device 1 information on the light reception intensity and the distance obtained from the reflected light obtained by reflecting the irradiated light at the reflection position.
- the space recognition device 1 acquires, from the radar device 2, information such as light reception intensity and distance obtained from the reflected light according to the reflection position of the light.
- the space recognition device 1 analyzes the position and state of the forklift 10 and the container 20 provided with the reflection plate R based on the acquired distribution of information.
- the space recognition device 1 may analyze the identification information of the forklift 10 or the container 20 provided with the reflection plate R based on the distribution of the reflection area provided in the reflection plate R.
- the space recognition device 1 may analyze identification information of the forklift 10 or the container 20 provided with the reflecting plate R based on the distribution of the concavities and convexities provided on the reflecting plate R.
- FIG. 2 is a diagram showing a hardware configuration of the space recognition apparatus 1 according to the same embodiment.
- the space recognition device 1 includes a central processing unit (CPU) 201, an interface (IF) 202, a communication module 203, a read only memory (ROM) 204, a random access memory (RAM) 205, a hard disk drive (HDD) 206, and an RFID reader.
- a configuration such as 207 is provided.
- the communication module 203 communicates with the space recognition device 1.
- the IF 202 is an interface between, for example, the space recognition device 1 and the operation terminal 3 connected in communication.
- the RFID reader 207 reads, for example, an RFID tag provided in the mounted container 20 or the like, and acquires information such as a luggage ID.
- FIG. 3 is a diagram showing functional blocks of the space recognition device 1 according to the same embodiment.
- the space recognition apparatus 1 includes functional units including a control unit 101, an analysis unit 102, a mobile object information acquisition unit 103, an output unit 104, and a recording unit 105.
- the control unit 101 controls each function provided to the space recognition apparatus 1.
- the radar device 2 irradiates light to a reflection plate R provided on a movable body such as the forklift 10 or the container 20 located in the detection range, and receives reflected light of the irradiated light.
- the analysis unit 102 acquires information obtained from the radar device 2 based on the reflected light according to the irradiation direction of the light.
- the analysis unit 102 determines the position and state of the movable object such as the forklift 10 or the container 20 provided with the reflecting plate R. To analyze.
- the information distribution is, for example, a distribution of values indicating the light reception intensity and the distance obtained from the reflected light.
- the mobile object information acquisition unit 103 acquires information such as a mobile object ID (identification: ID) of the forklift 10 or the container 20 detected as a result of analysis by the space recognition device 1.
- the output unit 104 outputs display information such as warning information and position information of a moving object to a monitor or the like provided on the operation terminal 3.
- the recording unit 105 records information such as the analysis result of the analysis unit 102 in a storage device such as the ROM 204 or the RAM 205.
- FIG. 4 is a diagram showing a processing flow of the space recognition device 1.
- the administrator operates the operation terminal 3 to activate the space recognition device 1.
- the control unit 101 of the space recognition device 1 instructs the radar device 2 to start processing.
- the radar device 2 emits light in each direction of the detection range of the self device, and receives the reflected light reflected at the reflection position.
- the radar device 2 may detect, for example, the intensity of the reflected light reflected by each object located in the detection range for each irradiation direction of the light.
- the radar device 2 outputs the intensity of the reflected light of the light irradiated in each direction of the detection range to the space recognition device 1 at predetermined intervals such as one second or several milliseconds. As the forklift 10 moves, the detection range of the radar device 2 also changes.
- the control unit 101 generates sensing information including the reception intensity of the reflected light and the distance to the reflection position of the reflected light corresponding to each light irradiation direction in the detection range received from the radar device 2 at predetermined intervals. (Step S101).
- the distance to the reflection position of the reflected light indicates the distance from the radar device 2 to the reflection position.
- the control unit 101 outputs the generated sensing information to the analysis unit 102.
- the sensing information includes information indicating each pixel obtained by finely dividing the image plane in the detection range, the received light intensity of the reflected light from each reflection position corresponding to each pixel, and the distance to the reflection position corresponding to each pixel. Is at least included.
- FIG. 5 is a diagram showing a specific example of sensing information.
- the analysis unit 102 extracts a data group in the high intensity range A2 in which the reflected light intensity (light reception intensity) such as the light reception amount is equal to or more than a predetermined value from the sensing information.
- the data group in the high intensity range A2 has, for example, the intensity of the reflected light corresponding to the high intensity range A2 in which the intensity (amount of light reception) of the reflected light is high in the detection range A1.
- the analysis unit 102 sequentially determines, in the row direction, pixels in each row of the data group in the detection range A1 whether or not the reflected light intensity is equal to or higher than a threshold, and identifies pixels whose reflected high intensity is equal to or higher than the threshold.
- the analysis unit 102 performs a process of specifying a pixel whose reflected light intensity is equal to or more than a threshold value for each row of the detection range A1.
- the analysis unit 102 determines that the range (high intensity range A2) of the pixel group whose reflected light intensity is equal to or more than the threshold value is the range of the reflecting plate R to be analyzed (step S102).
- the threshold value of the reflected light intensity is, for example, the value “3000”.
- the analysis unit 102 can determine that the movable body such as the forklift 10 or the container 20 is located at a distant position where the range of the reflecting plate R detected by the analysis unit 102 is substantially recognized as a point.
- the range in the column direction or row direction of the pixel group in the range estimated to be the reflector R detected by the analysis unit 102 in the high intensity range A2 is equal to or more than the number of pixels covering the entire detection range, It can be determined as follows.
- the analysis unit 102 can determine that the movable body such as the forklift or the container 20 provided with the reflection plate R is located at a fairly close position.
- the analysis unit 102 is configured by a small number of pixels such that the pixel group in the range estimated to be the reflector R is recognized as a point, the moving body can be estimated to be at a distant position.
- the range estimated to be the reflecting plate R may be excluded from the analysis target.
- the analysis unit 102 includes the pixel number of each pixel in the high intensity range A2 determined to be the range of the reflector R to be analyzed, the reflected light intensity of each pixel, and the distance to the reflection position indicated by each pixel. Reflector plate data is generated (step S103).
- the analysis unit 102 analyzes the shape of the range of the reflector R indicated by the reflector data by pattern recognition (step S104).
- the analysis unit 102 outputs a shape ID indicating the recognized shape of the reflecting plate R to the moving body information acquisition unit 103.
- the moving body information acquisition unit 103 reads the moving body ID recorded in the storage unit such as the HDD 206 in accordance with the shape ID indicating the shape (step S105).
- the moving body ID may be, for example, the ID of the forklift 10 or the ID of the container 20.
- the analysis unit 102 identifies sensing information corresponding to each reflector data in which the same mobile object ID is detected, and identifies each radar device 2 that has transmitted the sensing information. For example, as shown in FIG. 1, the analysis unit 102 can estimate the same moving object ID at the same time based on reflector data generated from the sensing information output from each of the radar devices 2a, 2b, and 2c. The case of detection is illustrated. In this case, the analysis unit 102 reads the coordinates of the radar devices 2a, 2b, and 2c from the HDD 206 (step S106).
- the analysis unit 102 detects the mobile unit ID read in step S105 based on reflector data generated based on the sensing information from each of the three or more radar devices 2 as sensing information within a predetermined time. It is determined whether it has been achieved (step S107). If the determination in step S107 is YES, the analysis unit 102 acquires the pixel distance of the central portion of the range of the reflector R obtained from each reflector data. Then, the analysis unit 102 calculates the position of the moving body indicated by the moving body ID (step S108). On the other hand, when determination of step S107 is NO, it returns to the process of step S101, and based on the signal received from the radar apparatus 2, the process from the production
- the calculation process (S108) of the position (coordinates) of the moving object indicated by the moving object ID by the analysis unit 102 will be described.
- FIG. 6 is a diagram showing an outline of calculation processing of coordinates of a moving object.
- the analysis unit 102 calculates the position of the moving object based on the information.
- the analysis unit 102 determines the intersections of three circles based on the positions of the three radar devices 2a, 2b, and 2c and the distances from the respective radar devices 2a, 2b, and 2c to the central portion of the reflector R. calculate.
- the first circle is a circle whose center is coordinates (x1, y1) of the radar device 2a and whose radius L1 is the distance L1 from the radar device 2a to the central portion of the reflecting plate R of the forklift 10.
- the second circle is a circle whose radius is the distance L2 from the radar device 2b to the central portion of the reflecting plate R of the forklift 10 with the coordinates (x2, y2) of the radar device 2b as the center.
- the third circle is a circle whose radius is the distance L3 from the radar device 2c to the central portion of the reflection plate R of the forklift 10 with the coordinates (x3, y3) of the radar device 2c as the center.
- the analysis unit 102 identifies the intersection of the three circles as the coordinates of the forklift 10 indicated by the moving object ID read in step S105. In the same manner as the calculation process of the coordinates of the forklift 10, for example, the analysis unit 102 calculates the coordinates of the container 20 loaded on the forklift 10.
- the output unit 104 outputs the position of the movable object such as the forklift 10 or the container 20 calculated by the analysis unit 102 and the ID of the movable object on the space map displayed on the output unit 104 of the operation terminal 3 (step S109).
- the output unit 104 may read the mobile unit name from the HDD 206 based on the mobile unit ID, and output the mobile unit name together with the mobile unit ID on the space map.
- the output unit 104 reads information such as the product name, the product ID, and the amount included in the container 20 from the HDD 206 and outputs the information on the space map. It is also good.
- the control unit 101 determines whether to end the process (step S110). If the control unit 101 does not end the process (NO in step S110), the control unit 101 controls to repeat the process from step S101. On the other hand, when the process ends (YES in step S110), the control unit 101 ends the process flow illustrated in FIG.
- the analysis unit 102 can detect the transition of each position of the moving object by repeatedly performing the process of detecting the position described above for each moving object ID.
- the analysis unit 102 can analyze the movement trajectory of the forklift 10, the movement trajectory of the container 20, and the like.
- the movement trajectory is information indicated by the position in the three-dimensional space at each predetermined time of each moving object such as the forklift 10 and the container 20.
- the analysis unit 102 may analyze whether or not the trajectory of the moving object has a predetermined pattern and whether the velocity is a predetermined velocity to determine whether the state of movement is good or bad.
- the analyzing unit 102 determines that the trajectory of the moving object deviates from the predetermined pattern, the analyzing unit 102 associates the moving object ID with the moving object ID and records information indicating that the moving condition of the moving object is bad.
- the analysis unit 102 analyzes information such as whether the work is polite or safe based on the locus of the position of raising and lowering of the container 20, links it to the moving object ID, and records the analysis result. It is also good.
- the mobile is a package such as container 20 or the like.
- the analysis unit 102 analyzes the position of the load based on the range of the reflecting plate R, and analyzes the state regarding the quality of the moving work of the load based on the history of the position of the load.
- the reflector R may be attached to the stationary structure.
- the analysis unit 102 may analyze inclination or movement according to the time of the structure.
- the stationary structure can also be one aspect of the moving body.
- the analysis unit 102 can monitor the falling of the shelf based on the transition of the position of the reflecting plate R provided on the shelf.
- the space recognition apparatus 1 can easily recognize the position of the moving object moving in the space where many stationary structures are arranged in the same pattern and various objects are placed.
- the space recognition device 1 analyzes the signal transmitted from the position information transmission tag to identify the position of the mobile body, analyzes the position by GNSS (Global Navigation Satellite System), etc., and identifies the position of the mobile body. It is not necessary to have the device. That is, in the space recognition apparatus 1, the moving body R may be provided with the reflection plate R. For this reason, the cost of the apparatus which comprises a system can be reduced.
- the space recognition device 1 measures the position of the moving body by light without using radio waves that affect the electronic circuit. For this reason, it is useful for recognition of the position of the mobile unit in the area where transmission of the radio signal is suppressed.
- the analysis unit 102 determines the range of the reflecting plate R based on the range in which the reflected light intensity is equal to or higher than the threshold. However, on the basis of the difference between the reflected light intensity of the pixel range where the reflected light intensity is equal to or greater than the threshold and the reflected light intensity of the pixel where the reflected light intensity adjacent to that pixel range is less than the threshold, The range may be determined. That is, when the difference is equal to or more than a predetermined threshold, the analysis unit 102 may specify the pixel range in which the reflected light intensity is equal to or more than the threshold as the range of the reflection plate R to be analyzed.
- FIG. 7 is a view showing a first modified example of the reflecting plate R.
- Two-dimensional code information D such as QR code (registered trademark) may be printed on the reflecting plate R1 provided in the container 20 and the reflecting plate R2 provided in the forklift 10.
- the analysis unit 102 divides the pixel in which the reflected light intensity is below the threshold and the pixel in which the reflected light intensity is above the threshold into two values. Get an image.
- the threshold used to acquire a binary image is larger than the threshold for determining the high intensity range A2.
- the analysis unit 102 may determine a region surrounded by each pixel whose reflected light intensity is equal to or higher than the threshold value as the high intensity range A2.
- the analysis unit 102 determines that the binary image is two-dimensional code information D.
- the analysis unit 102 may read the ID of the moving body indicated by the reflecting plate R by a conventional method of analyzing the two-dimensional code information D based on the binary image in the high intensity range A2.
- the analysis unit 102 moves based on the distribution (two-dimensional code information D) of the reflection area provided on the reflection plate R acquired based on the reflected light height of each coordinate in the range of the reflection plate R.
- Body identification information may be analyzed.
- FIG. 8 is a view showing a second modification of the reflecting plate R.
- the reflection plate R may be roughened as shown in FIG.
- the analysis unit 102 calculates the distance to the reflection position corresponding to each pixel of the high intensity range A2 determined to be the range of the reflection plate R.
- the analysis unit 102 calculates the distance from the radar device 2 to the reflection position corresponding to each pixel in the high-intensity range A2, for example, based on the time from the irradiation time of light to the light reception time.
- the analysis unit 102 detects a pixel having a large difference in distance between adjacent pixels and a pixel having a small distance between adjacent pixels based on the calculated distances.
- the analysis unit 102 acquires a binary image obtained by binarizing each pixel based on the distance between adjacent pixels, and determines that the binary image is two-dimensional code information D.
- the analysis unit 102 may read the ID of the moving body indicated by the reflecting plate R by a conventional method of analyzing the two-dimensional code information D based on the binary image in the high intensity range A2.
- the distribution of the reflected light information is the distribution of the distance from the irradiation point on the real space corresponding to each coordinate to the reflection point based on the time from the irradiation time of light to the reception time of the reflected light Good.
- the analysis unit 102 analyzes the position of the moving body as the state of the moving body based on the distribution of the distances.
- the analysis unit 102 may further analyze the identification information of the moving object based on the distribution of asperities provided on the reflecting plate R acquired based on the distribution of distances.
- FIG. 9 is a view showing the minimum configuration of the space recognition apparatus 1.
- the space recognition apparatus 1 shown in FIG. 9 may include at least the analysis unit 102.
- the optical device receives reflected light obtained by irradiating light to a reflection plate provided on a moving body located in a detection range.
- the analysis unit 102 acquires, from the optical device, reflected light information obtained from the reflected light according to the irradiation direction of the light.
- the analysis unit 102 determines at least the position of the movable body provided with the reflector based on the distribution of the reflected light information at each coordinate of the detection range.
- the above-mentioned space recognition apparatus has a computer system inside. And the process of each process mentioned above is memorize
- the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory and the like.
- the computer program may be distributed to a computer through a communication line, and the computer that has received the distribution may execute the program.
- the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
- difference file difference program
- the position of a carrier or a mobile body such as an object carried by the carrier and mobile bodies thereof It is possible to easily and inexpensively recognize the quality of work based on the movement of the carrier
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Forklifts And Lifting Vehicles (AREA)
Abstract
検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する解析部、を備える空間認識装置。
Description
本発明は、空間認識装置、空間認識方法、プログラムに関する。
ある空間内を移動する移動体の位置を認識するために、照射した光の反射光を解析する技術が特許文献1、特許文献2に開示されている。
多様な物体が載置され静止構造物が同じパターンで数多く並んでいるような空間内において、運搬装置やその運搬装置によって運ばれる物体などの移動体の位置やそれらの移動体の移動に基づく作業の良否を容易にまた低コストに認識できる技術が必要となっている。
そこでこの発明は、上述の課題を解決することのできる空間認識装置、空間認識方法、プログラムを提供することを目的としている。
本発明の第1の態様によれば、空間認識装置は、検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する解析部、を備えることを特徴とする。
本発明の第2の態様によれば、空間認識方法は、検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析することを特徴とする。
本発明の第3の態様によれば、プログラムは、空間認識装置のコンピュータに、検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する処理を実行させることを特徴とする。
本発明によれば、多様な物体が載置され静止構造物が同じパターンで数多く並んでいるような空間内において、運搬装置やその運搬装置によって運ばれる物体などの移動体の位置やそれら移動体の移動に基づく作業の良否を容易にまた低コストに認識することができる。
以下、本発明の一実施形態による空間認識装置を図面を参照して説明する。
図1は同実施形態による空間認識装置を備えたフォークリフトを含む空間認識システムの概要を示す図である。
図1で示すフォークリフト10は、多様な物体が載置され静止構造物が同じパターンで数多く並んでいるような空間内を移動する移動体の一例である。フォークリフト10はフォークリフト10の移動できる空間に載置されるコンテナ20等の荷物を運搬する。フォークリフト10には反射板R1が設けられている。またフォークリフト10が運搬するコンテナ20等の荷物には反射板R2が設けられている。反射板R1、反射板R2・・を総称して反射板Rと呼ぶこととする。フォークリフト10が複数のコンテナ20を同時に運搬する場合にはそれら複数のコンテナ20それぞれに反射板Rが設けられてよい。
図1は同実施形態による空間認識装置を備えたフォークリフトを含む空間認識システムの概要を示す図である。
図1で示すフォークリフト10は、多様な物体が載置され静止構造物が同じパターンで数多く並んでいるような空間内を移動する移動体の一例である。フォークリフト10はフォークリフト10の移動できる空間に載置されるコンテナ20等の荷物を運搬する。フォークリフト10には反射板R1が設けられている。またフォークリフト10が運搬するコンテナ20等の荷物には反射板R2が設けられている。反射板R1、反射板R2・・を総称して反射板Rと呼ぶこととする。フォークリフト10が複数のコンテナ20を同時に運搬する場合にはそれら複数のコンテナ20それぞれに反射板Rが設けられてよい。
空間内に配置される静止構造物は例えば柱や壁などである。図1で示すように空間認識システム100において、一例として角柱状や円柱状の柱にレーダ装置2が設けられる。図1においてレーダ装置2は、レーダ装置2a、2b、2cのレーダ装置を示す。レーダ装置2a、2b、2cを総称してレーダ装置2と呼ぶこととする。レーダ装置2は複数の柱や壁などの、複数の静止構造物に取り付けられていてよい。レーダ装置2は通信ネットワークを介して空間認識装置1と通信接続されている。レーダ装置2は、空間認識装置1の制御に基づいて空間内に光を照射し、その光の反射位置からの反射光を受光する。レーダ装置2は、例えば、センサを備え、センサが有する受光素子によって受光された反射光の強さ(受光強度)を出力する。反射板Rにおいて反射しレーダ装置2で受光された反射光の受光強度は、反射板R以外の位置で反射してレーダ装置2で受光された反射光の受光強度に比べて強い。
レーダ装置2は、検出範囲の像面を細かく分割した各ピクセルに対応する各反射位置それぞれに対して光を照射する。レーダ装置2は、照射された光が反射位置で反射した反射光から得られる受光強度や距離の情報を、空間認識装置1へ出力する。空間認識装置1は、光の反射位置に応じた反射光から得られる受光強度や距離等の情報をレーダ装置2から取得する。空間認識装置1は、取得した情報の分布に基づいて、反射板Rが設けられたフォークリフト10やコンテナ20の位置や状態を解析する。空間認識装置1は、反射板Rに設けられた反射領域の分布に基づいて、反射板Rが設けられたフォークリフト10やコンテナ20の識別情報を解析してもよい。また、空間認識装置1は、反射板Rに設けられた凹凸の分布に基づいて、反射板Rが設けられたフォークリフト10やコンテナ20の識別情報を解析してもよい。
図2は同実施形態による空間認識装置1のハードウェア構成を示す図である。
空間認識装置1は、CPU(Central Processing Unit)201、IF(Interface)202、通信モジュール203、ROM(Read Only Memory)204、RAM(Random Access Memory)205、HDD(Hard Disk Drive)206、RFIDリーダ207などの構成を備えている。通信モジュール203は空間認識装置1と通信を行う。IF202は、例えば空間認識装置1と通信接続された操作端末3との間のインタフェースである。RFIDリーダ207は、例えば、載置されたコンテナ20等に設けられたRFIDタグを読み取り、荷物IDなどの情報を取得する。
空間認識装置1は、CPU(Central Processing Unit)201、IF(Interface)202、通信モジュール203、ROM(Read Only Memory)204、RAM(Random Access Memory)205、HDD(Hard Disk Drive)206、RFIDリーダ207などの構成を備えている。通信モジュール203は空間認識装置1と通信を行う。IF202は、例えば空間認識装置1と通信接続された操作端末3との間のインタフェースである。RFIDリーダ207は、例えば、載置されたコンテナ20等に設けられたRFIDタグを読み取り、荷物IDなどの情報を取得する。
図3は同実施形態による空間認識装置1の機能ブロックを示す図である。
空間認識装置1は制御部101、解析部102、移動体情報取得部103、出力部104、記録部105の各機能部を備える。
制御部101は、空間認識装置1に備わる各機能を制御する。
レーダ装置2は、検出範囲に位置するフォークリフト10やコンテナ20等の移動体に設けられた反射板Rに光を照射し、照射した光の反射光を受光する。解析部102は、レーダ装置2から、光の照射方向に応じた反射光に基づいて得られる情報を取得する。解析部102は、レーダ装置2の検出範囲の各座標における反射光に基づいて得られる情報の分布に基づいて、反射板Rが設けられたフォークリフト10やコンテナ20等の移動体の位置や状態を解析する。情報の分布は、例えば、反射光から得られる受光強度や距離を示す値の分布である。
移動体情報取得部103は空間認識装置1が解析した結果検出したフォークリフト10やコンテナ20などの移動体ID(identification:ID)等の情報を取得する。
出力部104は操作端末3に設けられたモニタ等に、警告情報や移動体の位置情報などの表示情報を出力する。
記録部105は、解析部102の解析結果等の情報をROM204やRAM205等の記憶装置に記録する。
空間認識装置1は制御部101、解析部102、移動体情報取得部103、出力部104、記録部105の各機能部を備える。
制御部101は、空間認識装置1に備わる各機能を制御する。
レーダ装置2は、検出範囲に位置するフォークリフト10やコンテナ20等の移動体に設けられた反射板Rに光を照射し、照射した光の反射光を受光する。解析部102は、レーダ装置2から、光の照射方向に応じた反射光に基づいて得られる情報を取得する。解析部102は、レーダ装置2の検出範囲の各座標における反射光に基づいて得られる情報の分布に基づいて、反射板Rが設けられたフォークリフト10やコンテナ20等の移動体の位置や状態を解析する。情報の分布は、例えば、反射光から得られる受光強度や距離を示す値の分布である。
移動体情報取得部103は空間認識装置1が解析した結果検出したフォークリフト10やコンテナ20などの移動体ID(identification:ID)等の情報を取得する。
出力部104は操作端末3に設けられたモニタ等に、警告情報や移動体の位置情報などの表示情報を出力する。
記録部105は、解析部102の解析結果等の情報をROM204やRAM205等の記憶装置に記録する。
図4は空間認識装置1の処理フローを示す図である。
次に空間認識装置1の処理フローについて順を追って説明する。
管理者は、操作端末3を操作して空間認識装置1を起動する。これにより空間認識装置1の制御部101はレーダ装置2に処理開始を指示する。レーダ装置2は自装置の検出範囲の各方向に光を照射し、反射位置で反射した反射光を受光する。レーダ装置2は一例としては検出範囲に位置する各物体に反射した反射光の強度を、その光の照射方向毎に検出するものであってよい。レーダ装置2は1秒や数ミリ秒など所定の間隔毎に、検出範囲の各方向に照射した光の反射光の強度を空間認識装置1へ出力する。フォークリフト10が移動することによりレーダ装置2の検出範囲も変動する。制御部101は所定の間隔毎に、レーダ装置2から受信した検出範囲内の各光照射方向に対応する、反射光の受信強度やその反射光の反射位置までの距離を含む、センシング情報を生成する(ステップS101)。反射光の反射位置までの距離は、レーダ装置2から反射位置までの距離を示す。制御部101は、生成したセンシング情報を解析部102へ出力する。センシング情報には、検出範囲の像面を細かく分割した各ピクセルを示す情報と、それら各ピクセルに対応する各反射位置からの反射光の受光強度と、各ピクセルに対応する反射位置までの距離とが少なくとも含まれる。
次に空間認識装置1の処理フローについて順を追って説明する。
管理者は、操作端末3を操作して空間認識装置1を起動する。これにより空間認識装置1の制御部101はレーダ装置2に処理開始を指示する。レーダ装置2は自装置の検出範囲の各方向に光を照射し、反射位置で反射した反射光を受光する。レーダ装置2は一例としては検出範囲に位置する各物体に反射した反射光の強度を、その光の照射方向毎に検出するものであってよい。レーダ装置2は1秒や数ミリ秒など所定の間隔毎に、検出範囲の各方向に照射した光の反射光の強度を空間認識装置1へ出力する。フォークリフト10が移動することによりレーダ装置2の検出範囲も変動する。制御部101は所定の間隔毎に、レーダ装置2から受信した検出範囲内の各光照射方向に対応する、反射光の受信強度やその反射光の反射位置までの距離を含む、センシング情報を生成する(ステップS101)。反射光の反射位置までの距離は、レーダ装置2から反射位置までの距離を示す。制御部101は、生成したセンシング情報を解析部102へ出力する。センシング情報には、検出範囲の像面を細かく分割した各ピクセルを示す情報と、それら各ピクセルに対応する各反射位置からの反射光の受光強度と、各ピクセルに対応する反射位置までの距離とが少なくとも含まれる。
図5はセンシング情報の具体例を示す図である。
解析部102は検出範囲のセンシング情報を受信すると、センシング情報から受光量などの反射光強度(受光強度)が所定の値以上となる高強度範囲A2のデータ群を取り出す。高強度範囲A2のデータ群は、一例としては検出範囲A1のうち反射光の強度(受光量)が高い高強度範囲A2に対応する、反射光の強度を有する。図5で示す高強度範囲A2のデータ群は、検出範囲A1が縦方向13行、横方向17列に分割された各ピクセルのうち、高強度範囲A2の各ピクセルの、光の照射方向に対応する反射光の強度を一例として示している。解析部102は、検出範囲A1のデータ群の各行のピクセルについて行方向に順次、反射光強度が閾値以上か否かを判定し、反射高強度が閾値以上のピクセルを特定する。解析部102はその反射光強度が閾値以上のピクセルの特定処理を、検出範囲A1の各行について行う。解析部102は反射光強度が閾値以上のピクセル群の範囲(高強度範囲A2)を、解析対象の反射板Rの範囲であると判定する(ステップS102)。図5の例によると、反射光強度の閾値は、例えば、値「3000」である。
解析部102は検出範囲のセンシング情報を受信すると、センシング情報から受光量などの反射光強度(受光強度)が所定の値以上となる高強度範囲A2のデータ群を取り出す。高強度範囲A2のデータ群は、一例としては検出範囲A1のうち反射光の強度(受光量)が高い高強度範囲A2に対応する、反射光の強度を有する。図5で示す高強度範囲A2のデータ群は、検出範囲A1が縦方向13行、横方向17列に分割された各ピクセルのうち、高強度範囲A2の各ピクセルの、光の照射方向に対応する反射光の強度を一例として示している。解析部102は、検出範囲A1のデータ群の各行のピクセルについて行方向に順次、反射光強度が閾値以上か否かを判定し、反射高強度が閾値以上のピクセルを特定する。解析部102はその反射光強度が閾値以上のピクセルの特定処理を、検出範囲A1の各行について行う。解析部102は反射光強度が閾値以上のピクセル群の範囲(高強度範囲A2)を、解析対象の反射板Rの範囲であると判定する(ステップS102)。図5の例によると、反射光強度の閾値は、例えば、値「3000」である。
高強度範囲A2において解析部102が検出した反射板Rと推定される範囲のピクセル群の列方向や行方向の範囲が所定のピクセル数未満である場合には、次のように判定できる。すなわち、解析部102は、解析部102が検出した反射板Rの範囲がほぼ点として認識されるような遠い位置に、フォークリフト10やコンテナ20等の移動体が位置すると判定できる。また高強度範囲A2において解析部102が検出した反射板Rと推定される範囲のピクセル群の列方向や行方向の範囲が、検出範囲の全体を覆うようなピクセル数以上である場合には、次のように判定できる。すなわち、解析部102は反射板Rが設けられたフォークリフトやコンテナ20などの移動体は、かなり近い位置に位置すると判定できる。解析部102は一例としては、反射板Rと推定される範囲のピクセル群が点として認識されるような数少ないピクセル数で構成される場合には、移動体は遠い位置であると推定できるためそれら反射板Rと推定される範囲を解析対象から除くようにしてもよい。解析部102は、解析対象の反射板Rの範囲と判定した高強度範囲A2内の各ピクセルのピクセル番号と、それぞれのピクセルの反射光強度と、各ピクセルが示す反射位置までの距離とを含む反射板データを生成する(ステップS103)。
解析部102は反射板データをセンシング情報に基づいて生成した場合、その反射板データが示す反射板Rの範囲の形状をパターン認識により解析する(ステップS104)。解析部102は認識した反射板Rの形状を示す形状IDを移動体情報取得部103へ出力する。移動体情報取得部103は形状を示す形状IDに紐づいてHDD206等の記憶部に記録される移動体IDを読み取る(ステップS105)。なお、ある特定の反射板Rの形状には一つの移動体IDのみが紐づいてHDD206に記録されていることとする。移動体IDは例えばフォークリフト10のIDや、コンテナ20のIDであってよい。
解析部102は同じ移動体IDを検出した各反射板データに対応するセンシング情報を特定し、それらセンシング情報を送信した各レーダ装置2を特定する。例えば、解析部102が、図1に示すようにレーダ装置2a、2b、2cそれぞれの出力したセンシング情報から生成された反射板データに基づいて、同じ移動体IDを同時刻と推定できる時間内に検出した場合を例示する。この場合、解析部102はレーダ装置2a、2b、2cの座標をHDD206から読み取る(ステップS106)。解析部102は、ステップS105で読み取った移動体IDを、所定の時間内のセンシング情報であって、3以上のレーダ装置2それぞれからのセンシング情報に基づいて生成された反射板データに基づいて検出できたか否かを判定する(ステップS107)。ステップS107の判定がYESの場合には解析部102は、各反射板データから得られる反射板Rの範囲の中央部分のピクセルの距離を取得する。そして解析部102はその移動体IDが示す移動体の位置を算出する(ステップS108)。一方、ステップS107の判定がNOの場合にはステップS101の処理に戻り、レーダ装置2から受信した信号に基づいて次のセンシング情報の生成からの処理を繰り返す。
ここで、解析部102による、移動体IDが示す移動体の位置(座標)の算出処理(S108)を説明する。
ここで、解析部102による、移動体IDが示す移動体の位置(座標)の算出処理(S108)を説明する。
図6は移動体の座標の算出処理の概要を示す図である。
解析部102は複数のレーダ装置2それぞれの位置と、各レーダ装置2から反射板Rの中央部分までの距離とを取得すると、それらの情報に基づいて移動体の位置を算出する。
解析部102は、例えば、3つのレーダ装置2a、2b、2cそれぞれの位置と、各レーダ装置2a、2b、2cから反射板Rの中央部分までの各距離とに基づいた3つの円の交点を算出する。第一の円は、レーダ装置2aの座標(x1,y1)を中心としそのレーダ装置2aからフォークリフト10の反射板Rの中央部分までの距離L1を半径とする円である。第二の円は、レーダ装置2bの座標(x2,y2)を中心としそのレーダ装置2bからフォークリフト10の反射板Rの中央部分までの距離L2を半径とする円である。第三の円は、レーダ装置2cの座標(x3,y3)を中心としそのレーダ装置2cからフォークリフト10の反射板Rの中央部分までの距離L3を半径とする円である。解析部102は、3つの円の交点を、ステップS105で読み取った移動体IDが示すフォークリフト10の座標であるとして特定する。フォークリフト10の座標の算出処理と同様にして、例えば、解析部102はフォークリフト10に積載されるコンテナ20の座標を算出する。
解析部102は複数のレーダ装置2それぞれの位置と、各レーダ装置2から反射板Rの中央部分までの距離とを取得すると、それらの情報に基づいて移動体の位置を算出する。
解析部102は、例えば、3つのレーダ装置2a、2b、2cそれぞれの位置と、各レーダ装置2a、2b、2cから反射板Rの中央部分までの各距離とに基づいた3つの円の交点を算出する。第一の円は、レーダ装置2aの座標(x1,y1)を中心としそのレーダ装置2aからフォークリフト10の反射板Rの中央部分までの距離L1を半径とする円である。第二の円は、レーダ装置2bの座標(x2,y2)を中心としそのレーダ装置2bからフォークリフト10の反射板Rの中央部分までの距離L2を半径とする円である。第三の円は、レーダ装置2cの座標(x3,y3)を中心としそのレーダ装置2cからフォークリフト10の反射板Rの中央部分までの距離L3を半径とする円である。解析部102は、3つの円の交点を、ステップS105で読み取った移動体IDが示すフォークリフト10の座標であるとして特定する。フォークリフト10の座標の算出処理と同様にして、例えば、解析部102はフォークリフト10に積載されるコンテナ20の座標を算出する。
出力部104は、解析部102が算出したフォークリフト10やコンテナ20等の移動体の位置とその移動体のIDとを、操作端末3の出力部104に表示された空間地図上に出力する(ステップS109)。出力部104は移動体IDに基づいてHDD206から移動体名を読み取り、その移動体名を移動体IDと共に空間地図上に出力してもよい。また出力部104は移動体IDに基づいてその移動体がコンテナ20である場合には、コンテナ20に含まれる商品名、商品ID、量などの情報をHDD206から読み取って空間地図上に出力してもよい。これにより管理者は空間における移動体の位置やその他の属性情報等を認識することができる。制御部101は処理を終了するか否かを判定する(ステップS110)。制御部101は処理を終了しない場合には(ステップS110のNO)、ステップS101からの処理を繰り返すよう制御する。一方、処理を終了する場合には(ステップS110のYES)、制御部101は、図4に示す処理フローを終了する。
解析部102は移動体IDそれぞれについて上述の位置の検出の処理を繰り返し行うことで、移動体それぞれの位置の遷移を検出することができる。これにより、解析部102はフォークリフト10の移動軌跡、コンテナ20の移動軌跡などを解析することができる。移動軌跡は、フォークリフト10やコンテナ20などの各移動体の所定の間隔の時刻毎の3次元空間内の位置により示される情報である。解析部102はその移動体の軌跡が所定のパターンかどうか、速度が所定の速度であったか否かを解析して移動の状態の良否を判定するようにしてもよい。例えば解析部102は移動体の軌跡が所定のパターンから外れるパターンであると判定した場合は、移動体IDに紐づけて移動体の移動状態が悪いことを示す情報をHDD206等に記録する。また解析部102は、コンテナ20の上げ下げの位置の軌跡に基づいて作業が丁寧であったか、安全であったかなどの情報を解析して、移動体IDに紐づけてその解析結果を記録するようにしてもよい。
このように、例えば、移動体はコンテナ20等の荷物である。解析部102は、反射板Rの範囲に基づいて荷物の位置を解析し、荷物の位置の履歴に基づいて、荷物の移動作業の良否に関する状態を解析する。
このように、例えば、移動体はコンテナ20等の荷物である。解析部102は、反射板Rの範囲に基づいて荷物の位置を解析し、荷物の位置の履歴に基づいて、荷物の移動作業の良否に関する状態を解析する。
反射板Rは静止構造物に取り付けられていてもよい。例えば構造部に取り付けておくことで、解析部102がその構造物の時間に応じた傾斜や移動を解析するようにしてもよい。このような場合、静止構造物も移動体の一態様とすることができる。例えば棚のような静止構造物に反射板Rが取り付けられている場合、解析部102はその棚に設けられた反射板Rの位置の遷移に基づいて棚が倒れることを監視することができる。
上述の処理によれば空間認識装置1は、静止構造物が同じパターンで数多く並び多様な物体が載置される空間において移動する移動体の位置を容易に認識することができる。また空間認識装置1は位置情報発信タグから発信された信号を解析して移動体の位置を特定する装置や、GNSS(Global Navigation Satellite System)などによる位置を解析して移動体の位置を特定する装置を備えなくてよい。すなわち、空間認識装置1は、移動体Rに反射板Rが備え付ければよい。このため、システムを構成する装置のコストを軽減することができる。また空間認識装置1は電子回路に影響を及ぼす電波を用いずに光により移動体の位置を測定する。この為、電波信号の発信を抑制されるエリアにおける移動体の位置の認識に有用である。
なお上述の処理において解析部102は反射光強度が閾値以上となる範囲に基づいて反射板Rの範囲を判定している。しかしながら解析部102はさらに反射光強度が閾値以上となったピクセル範囲と、そのピクセル範囲に隣接する反射光強度が閾値未満となったピクセルとの反射光強度の差に基づいて、反射板Rの範囲を判定してもよい。すなわち、解析部102は、その差が所定の閾値以上となる場合に、反射光強度が閾値以上となったピクセル範囲を解析対象の反射板Rの範囲と特定してもよい。
図7は反射板Rの第一の変形例を示す図である。
コンテナ20に設けられた反射板R1やフォークリフト10に設けられた反射板R2にはQRコード(登録商標)などの2次元コード情報Dが印刷されていてもよい。この場合、解析部102は反射板Rの範囲として判定された高強度範囲A2において、反射光強度が閾値未満となるピクセルと、反射光強度が閾値以上となるピクセルを2値に分けた2値画像を取得する。この場合、例えば、2値画像を取得するために使用する閾値は、高強度範囲A2を判定する閾値より大きい。または、解析部102は反射光強度が閾値以上の各ピクセルによって包囲された領域を高強度範囲A2として判定してもよい。解析部102は、その2値画像が2次元コード情報Dであると判定する。解析部102は高強度範囲A2内の2値画像に基づいて、2次元コード情報Dを解析する従来の手法により、その反射板Rが示す移動体のIDを読み取るようにしてもよい。このように、解析部102は、反射板Rの範囲における各座標の反射光高度に基づいて取得される反射板Rに設けられた反射領域の分布(2次元コード情報D)に基づいて、移動体の識別情報を解析してもよい。
コンテナ20に設けられた反射板R1やフォークリフト10に設けられた反射板R2にはQRコード(登録商標)などの2次元コード情報Dが印刷されていてもよい。この場合、解析部102は反射板Rの範囲として判定された高強度範囲A2において、反射光強度が閾値未満となるピクセルと、反射光強度が閾値以上となるピクセルを2値に分けた2値画像を取得する。この場合、例えば、2値画像を取得するために使用する閾値は、高強度範囲A2を判定する閾値より大きい。または、解析部102は反射光強度が閾値以上の各ピクセルによって包囲された領域を高強度範囲A2として判定してもよい。解析部102は、その2値画像が2次元コード情報Dであると判定する。解析部102は高強度範囲A2内の2値画像に基づいて、2次元コード情報Dを解析する従来の手法により、その反射板Rが示す移動体のIDを読み取るようにしてもよい。このように、解析部102は、反射板Rの範囲における各座標の反射光高度に基づいて取得される反射板Rに設けられた反射領域の分布(2次元コード情報D)に基づいて、移動体の識別情報を解析してもよい。
図8は反射板Rの第二の変形例を示す図である。
反射板Rは図8で示すように凹凸がもうけられていてもよい。この場合、解析部102は反射板Rの範囲と判定した高強度範囲A2の各ピクセルに対応する反射位置までの距離を算出する。解析部102は、例えば、光の照射時刻から受光時刻までの時間に基づいて、レーダ装置2から高強度範囲A2の各ピクセルに対応する反射位置までの距離を算出する。解析部102は、算出した各距離に基づいて、隣接するピクセル間の距離の差が大きいピクセルと、隣接するピクセル間の距離が小さいピクセルとを検出する。解析部102は隣接するピクセルとの距離の大小に基づいて各ピクセルを2値化した2値画像を取得し、その2値画像が2次元コード情報Dであると判定する。解析部102は高強度範囲A2内の2値画像に基づいて、2次元コード情報Dを解析する従来の手法により、その反射板Rが示す移動体のIDを読み取るようにしてもよい。
このように、反射光情報の分布は、光の照射時刻から反射光の受信時刻までの時間に基づく、各座標に対応する実空間上の照射点から反射点までの距離の分布であってもよい。解析部102は、距離の分布に基づいて、移動体の状態として移動体の位置を解析する。また、解析部102は、距離の分布に基づいて取得される反射板Rに設けられた凹凸の分布に基づいて、移動体の識別情報をさらに解析してもよい。
反射板Rは図8で示すように凹凸がもうけられていてもよい。この場合、解析部102は反射板Rの範囲と判定した高強度範囲A2の各ピクセルに対応する反射位置までの距離を算出する。解析部102は、例えば、光の照射時刻から受光時刻までの時間に基づいて、レーダ装置2から高強度範囲A2の各ピクセルに対応する反射位置までの距離を算出する。解析部102は、算出した各距離に基づいて、隣接するピクセル間の距離の差が大きいピクセルと、隣接するピクセル間の距離が小さいピクセルとを検出する。解析部102は隣接するピクセルとの距離の大小に基づいて各ピクセルを2値化した2値画像を取得し、その2値画像が2次元コード情報Dであると判定する。解析部102は高強度範囲A2内の2値画像に基づいて、2次元コード情報Dを解析する従来の手法により、その反射板Rが示す移動体のIDを読み取るようにしてもよい。
このように、反射光情報の分布は、光の照射時刻から反射光の受信時刻までの時間に基づく、各座標に対応する実空間上の照射点から反射点までの距離の分布であってもよい。解析部102は、距離の分布に基づいて、移動体の状態として移動体の位置を解析する。また、解析部102は、距離の分布に基づいて取得される反射板Rに設けられた凹凸の分布に基づいて、移動体の識別情報をさらに解析してもよい。
図9は空間認識装置1の最小構成を示す図である。
図9に示す空間認識装置1は少なくとも解析部102を備えればよい。
光学装置は、検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する。解析部102は、光の照射方向に応じた反射光から得られる反射光情報を、光学装置から取得する。解析部102は、検出範囲の各座標における反射光情報の分布に基づいて、反射板が設けられた移動体の位置を少なくとも判定する。
図9に示す空間認識装置1は少なくとも解析部102を備えればよい。
光学装置は、検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する。解析部102は、光の照射方向に応じた反射光から得られる反射光情報を、光学装置から取得する。解析部102は、検出範囲の各座標における反射光情報の分布に基づいて、反射板が設けられた移動体の位置を少なくとも判定する。
上述の空間認識装置は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2017年9月5日に日本出願された特願2017-170377号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、多様な物体が載置され静止構造物が同じパターンで数多く並んでいるような空間内において、運搬装置やその運搬装置によって運ばれる物体などの移動体の位置やそれら移動体の移動に基づく作業の良否を容易にまた低コストに認識することができる。
1・・・空間認識装置
2・・・レーダ装置
3・・・操作端末
10・・・フォークリフト
20・・・コンテナ
101・・・制御部
102・・・解析部
103・・・車両情報取得部
104・・・出力部
105・・・記録部
2・・・レーダ装置
3・・・操作端末
10・・・フォークリフト
20・・・コンテナ
101・・・制御部
102・・・解析部
103・・・車両情報取得部
104・・・出力部
105・・・記録部
Claims (8)
- 検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する解析部、
を備える空間認識装置。 - 前記反射光情報の前記分布は、前記検出範囲のうち前記反射光情報に含まれる前記反射光の強度が強度閾値を超える反射範囲の分布であり、
前記解析部は、前記反射範囲の前記分布に基づいて前記移動体の状態として前記移動体の位置を解析する
請求項1に記載の空間認識装置。 - 前記反射情報の前記分布は、前記光の照射時刻から前記反射光の受信時刻までの時間に基づく、前記各座標に対応する実空間上の照射点から反射点までの距離の分布であり、
前記解析部は、前記距離の前記分布に基づいて、前記移動体の状態として前記移動体の位置を解析する
請求項1に記載の空間認識装置。 - 前記解析部は、前記反射範囲の各座標の前記反射光の前記強度に基づいて取得される前記反射板に設けられた反射領域の分布に基づいて、前記移動体の識別情報をさらに解析する
請求項2に記載の空間認識装置。 - 前記解析部は、前記距離の前記分布に基づいて取得される前記反射板に設けられた凹凸の分布に基づいて、前記移動体の識別情報をさらに解析する
請求項3に記載の空間認識装置。 - 前記移動体は荷物であり、
前記解析部は、前記反射範囲の前記分布に基づいて前記荷物の位置を解析し、解析した前記荷物の前記位置の履歴に基づいて、前記荷物の移動作業の良否に関する前記状態を解析する
請求項1から請求項5の何れか一項に記載の空間認識装置。 - 検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する、
空間認識方法。 - 空間認識装置のコンピュータに、
検出範囲に位置する移動体に設けられた反射板に光を照射して得られる反射光を受光する光学装置から、前記光の照射方向に応じた前記反射光に基づいて得られる反射光情報を取得し、前記検出範囲の各座標における前記反射光情報の分布に基づいて、前記反射板が設けられた前記移動体の状態を解析する、
処理を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/643,987 US11579296B2 (en) | 2017-09-05 | 2018-08-15 | Spatial recognition device, spatial recognition method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170377A JP7392963B2 (ja) | 2017-09-05 | 2017-09-05 | 空間認識装置、空間認識方法、プログラム |
JP2017-170377 | 2017-09-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019049624A1 true WO2019049624A1 (ja) | 2019-03-14 |
Family
ID=65633949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/030359 WO2019049624A1 (ja) | 2017-09-05 | 2018-08-15 | 空間認識装置、空間認識方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11579296B2 (ja) |
JP (1) | JP7392963B2 (ja) |
WO (1) | WO2019049624A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11166831A (ja) * | 1997-12-04 | 1999-06-22 | Nikon Corp | レーザ測量システム |
JP2005274232A (ja) * | 2004-03-23 | 2005-10-06 | Sharp Corp | 位置検出装置、被検出器および位置検出システム |
JP2013072858A (ja) * | 2011-09-29 | 2013-04-22 | Panasonic Corp | 移動体位置推定装置、移動体位置推定方法、及び、移動体位置推定プログラム |
JP2014517272A (ja) * | 2011-05-07 | 2014-07-17 | ヒエロニミ、ベネディクト | 識別マークを評価するためのシステム、識別マーク、及びその使用法 |
JP2017039188A (ja) * | 2015-08-20 | 2017-02-23 | 株式会社東芝 | 移動ロボットおよび施工位置確認方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61117409A (ja) * | 1984-11-14 | 1986-06-04 | Komatsu Zoki Kk | 建設機械の現在地検出方法 |
JPH07152434A (ja) * | 1993-12-01 | 1995-06-16 | Fuji Heavy Ind Ltd | 自律走行作業車の自己位置検出方法 |
JP4051883B2 (ja) | 2000-12-20 | 2008-02-27 | 株式会社明電舎 | 無人車位置計測方式 |
JP4355886B2 (ja) * | 2001-02-13 | 2009-11-04 | 綜合警備保障株式会社 | 自律移動体の走行位置修正装置 |
JP4086866B2 (ja) | 2005-08-17 | 2008-05-14 | Necエンジニアリング株式会社 | 荷物保管位置検出装置 |
JP4448497B2 (ja) * | 2006-03-23 | 2010-04-07 | 本田技研工業株式会社 | 移動体の自己位置検出装置および位置検出システム |
JP5190761B2 (ja) * | 2008-01-10 | 2013-04-24 | 株式会社Ihi | 移動ロボットの監視装置および監視方法 |
US9139977B2 (en) * | 2010-01-12 | 2015-09-22 | Topcon Positioning Systems, Inc. | System and method for orienting an implement on a vehicle |
JP6136434B2 (ja) | 2013-03-25 | 2017-05-31 | 村田機械株式会社 | 自律移動式無人搬送車 |
JP6596889B2 (ja) * | 2015-04-03 | 2019-10-30 | 日産自動車株式会社 | 物体検出装置 |
SG11201800466WA (en) * | 2015-07-31 | 2018-02-27 | Sato Holdings Kk | Storage/retrieval work assistance system, storage/retrieval work assistance method, and program |
JP6611376B2 (ja) * | 2015-12-03 | 2019-11-27 | アルプスアルパイン株式会社 | 位置検出システム |
CZ309617B6 (cs) | 2019-04-05 | 2023-05-24 | Ústav organické chemie a biochemie AV ČR, v. v. i | 3α5ß-Neuroaktivní steroidy pro léčbu epilepsie a záchvatových onemocnění |
-
2017
- 2017-09-05 JP JP2017170377A patent/JP7392963B2/ja active Active
-
2018
- 2018-08-15 WO PCT/JP2018/030359 patent/WO2019049624A1/ja active Application Filing
- 2018-08-15 US US16/643,987 patent/US11579296B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11166831A (ja) * | 1997-12-04 | 1999-06-22 | Nikon Corp | レーザ測量システム |
JP2005274232A (ja) * | 2004-03-23 | 2005-10-06 | Sharp Corp | 位置検出装置、被検出器および位置検出システム |
JP2014517272A (ja) * | 2011-05-07 | 2014-07-17 | ヒエロニミ、ベネディクト | 識別マークを評価するためのシステム、識別マーク、及びその使用法 |
JP2013072858A (ja) * | 2011-09-29 | 2013-04-22 | Panasonic Corp | 移動体位置推定装置、移動体位置推定方法、及び、移動体位置推定プログラム |
JP2017039188A (ja) * | 2015-08-20 | 2017-02-23 | 株式会社東芝 | 移動ロボットおよび施工位置確認方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210063574A1 (en) | 2021-03-04 |
JP7392963B2 (ja) | 2023-12-06 |
JP2019045382A (ja) | 2019-03-22 |
US11579296B2 (en) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10641899B2 (en) | Detecting sensor orientation characteristics using marker-based localization | |
US7528721B2 (en) | Identification and location of RF tagged articles | |
CN101840488B (zh) | 射频环境对象监视系统和使用方法 | |
US9007178B2 (en) | Utilization of motion and spatial identification in RFID systems | |
EP2453253B1 (en) | A multi-directional active sensor system and a method for sensing electromagnetic radiation | |
US20100073476A1 (en) | Systems and methods for measuring three-dimensional profile | |
US20200150666A1 (en) | Method, system and apparatus for obstacle handling in navigational path generation | |
CN110865393A (zh) | 基于激光雷达的定位方法及系统、存储介质和处理器 | |
CN104732514A (zh) | 用于处理高度图的设备、系统和方法 | |
US11002842B2 (en) | Method and apparatus for determining the location of a static object | |
US9047522B1 (en) | Utilization of motion and spatial identification in mobile RFID interrogator | |
US11733700B2 (en) | Automating control of an industrial vehicle | |
CN114102577B (zh) | 一种机器人及应用于机器人的定位方法 | |
US11288554B2 (en) | Determination method and determination device | |
US11372422B2 (en) | Apparatus, system and method for using vehicle markers for controlling devices | |
US11585924B2 (en) | Spatial recognition device, spatial recognition method, and program | |
EP2778713A1 (en) | Utilization of motion and spatial identification in rfid systems | |
WO2019049624A1 (ja) | 空間認識装置、空間認識方法、プログラム | |
CA2969008A1 (en) | Identification and location of radio-frequency tagged articles | |
JP5601332B2 (ja) | 搬送車 | |
US20240127471A1 (en) | Information processing apparatus, information processing system, information processing method, and recording medium | |
KR20190001860A (ko) | 대상체 표면 감지장치 | |
KR101617540B1 (ko) | 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템 | |
KR20230002631A (ko) | 거리 및 범위 측정 디바이스 교정 | |
KR20220048760A (ko) | 위치 인식 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18854971 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18854971 Country of ref document: EP Kind code of ref document: A1 |