WO2022259750A1 - 森林用の情報処理装置、情報処理システム、及び、情報処理方法 - Google Patents

森林用の情報処理装置、情報処理システム、及び、情報処理方法 Download PDF

Info

Publication number
WO2022259750A1
WO2022259750A1 PCT/JP2022/016873 JP2022016873W WO2022259750A1 WO 2022259750 A1 WO2022259750 A1 WO 2022259750A1 JP 2022016873 W JP2022016873 W JP 2022016873W WO 2022259750 A1 WO2022259750 A1 WO 2022259750A1
Authority
WO
WIPO (PCT)
Prior art keywords
tree
information processing
unit
trees
route
Prior art date
Application number
PCT/JP2022/016873
Other languages
English (en)
French (fr)
Inventor
浩二 佐々木
恵子 塩沢
寿彦 望月
大輔 中島
Original Assignee
株式会社アドイン研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アドイン研究所 filed Critical 株式会社アドイン研究所
Priority to JP2023527546A priority Critical patent/JPWO2022259750A1/ja
Publication of WO2022259750A1 publication Critical patent/WO2022259750A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Definitions

  • the present invention relates to an information processing device, an information processing system, and an information processing method for forests.
  • SLAM Simultaneous Localization and Mapping
  • GNSS Global Navigation Satellite System
  • SDGs Sudstainable Development Goals, 2030 Agenda for Sustainable Development, adopted by the United Nations Summit on September 25, 2015, hereinafter referred to as "SDGs"
  • SDGs are related to forests, forestry, and the maintenance and conservation of forests through the timber industry.
  • the drone In order to investigate the forest, first, the drone emits a laser beam from the sky to identify the positions of the trees, etc., and investigate the forest. Thus, laser measurement data is generated. Next, a process of superimposing geographical information obtained from a geographical information system (GIS) is performed on the laser measurement data. Furthermore, processing such as noise removal is performed. In this way, there is known a forest resource information calculation method for extracting tree crowns with high accuracy (see, for example, Patent Document 1).
  • GIS geographical information system
  • the system will photograph the trees in order to automatically generate a map showing the arrangement of the plants. Furthermore, the system identifies the shooting position and shooting direction. Next, the system acquires three-dimensional data based on the image, shooting position, and shooting direction. A technique for generating a map by projecting three-dimensional data obtained in this way onto a plane is known (see, for example, Patent Document 2).
  • OWL Optical Woods Ledger
  • JP 2018-84472 A JP 2017-211805 A Japanese Patent No. 5269729
  • GNSS With the conventional technology, the user's position, etc. are always specified by GNSS.
  • GNSS may be difficult to measure, and if GNSS is always used to detect a position, there is a problem of degraded accuracy.
  • An object of the present invention is to accurately identify the user's current position, etc., even in a forest.
  • an information processing device includes: An information processing device for identifying the current position of a user in a forest, a measuring unit that emits a laser beam from the current position to measure the distance to each tree from the current position; a first acquisition unit that acquires map data indicating the arrangement of trees that constitute the forest; a second acquisition unit that acquires tree data indicating features of the trees indicated by the map data; a photographing unit that photographs the surroundings of the user and generates image data; Correspondence between the first tree indicated by the map data and the second tree of interest based on the measurement result or the analysis result based on the analysis result obtained by analyzing the image data and the measurement result by the measurement unit. a corresponding part that causes a first identifying unit that identifies the current position based on the positions of the plurality of third trees when there are a plurality of third trees that are the second trees corresponding to the first trees.
  • the user's current position and the like can be specified with high accuracy even in a forest.
  • FIG. 10 is a diagram showing an example of a situation in which the accuracy of specifying the current position by GNSS is relatively good, and an example of a situation in which the accuracy of specifying the current position is relatively poor;
  • FIG. 10 is a diagram showing an output example; It is a figure which shows the example of an entire process. An example of map data is shown. An example of tree data is shown.
  • FIG. 10 is a diagram illustrating an example of processing for identifying a current position; It is a figure which shows the functional structural example of an information processing system. 1 is a diagram showing an example of a network structure; FIG.
  • FIG. 4 is a diagram showing an example of a first route
  • FIG. FIG. 10 is a diagram showing an example of route generation
  • FIG. 10 is a diagram showing an input example of an object of interest; FIG.
  • FIG. 22 is a diagram illustrating a functional configuration example of an information processing system according to a ninth embodiment; It is a figure which shows the example of an integration process in 10th Embodiment. It is a figure which shows the example of aviation data. It is a figure which shows the example of ground data.
  • FIG. 22 is a diagram illustrating a functional configuration example of an information processing system according to a tenth embodiment;
  • FIG. 22 is a diagram illustrating a functional configuration example of an information processing system according to an eleventh embodiment; It is a figure which shows an experimental result.
  • FIG. 1 is a diagram showing the overall configuration of an information processing system.
  • the information processing system 100 mainly includes information processing devices such as a first information processing device 11 and a second information processing device 12 .
  • the first information processing device 11 and the second information processing device 12 transmit and receive data via a network.
  • Information processing devices such as the first information processing device 11 and the second information processing device 12 are, for example, the following devices.
  • FIG. 2 is a diagram illustrating a hardware configuration example of an information processing apparatus.
  • the first information processing device 11 has a hardware configuration including a Central Processing Unit (CPU, hereinafter referred to as "CPU 11H1"), a storage device 11H2, an interface 11H3, an input device 11H4, an output device 11H5, and the like.
  • CPU 11H1 Central Processing Unit
  • storage device 11H2 a storage device
  • interface 11H3 an input device
  • output device 11H5 an output device
  • the CPU 11H1 is an example of an arithmetic device and a control device.
  • the CPU 11H1 performs calculations based on programs, operations, or the like.
  • the storage device 11H2 is a main storage device such as a memory.
  • the storage device 11H2 may be an SSD (Solid State Drive) or an auxiliary storage device such as a hard disk.
  • the interface 11H3 transmits and receives data to and from an external device via a network, cable, or the like.
  • the interface 11H3 is a connector, an antenna, or the like.
  • the input device 11H4 is a device for inputting user's operations.
  • the input device 11H4 is a mouse, keyboard, or the like.
  • the output device 11H5 is a device that outputs processing results and the like to the user.
  • the output device 11H5 is a display or the like.
  • the first information processing apparatus 11 may have a hardware configuration that further includes hardware resources other than those described above inside or outside. Also, the first information processing device 11 may be a plurality of devices.
  • the first information processing device 11 may have the same hardware configuration as the second information processing device 12, or may have a different hardware configuration.
  • the first information processing device 11 is a mobile personal computer (PC) or the like carried by the user 10 .
  • the second information processing device 12 is a server that manages databases and the like.
  • the first information processing device 11 is the information processing device at the current position of the user 10 .
  • current position the position of the user 10 and the position of the first information processing device 11 match, and are simply referred to as "current position”.
  • position of the second information processing device 12 does not matter.
  • the information processing system 100 is not limited to the illustrated configuration.
  • the information processing system 100 may have devices other than the first information processing device 11 and the second information processing device 12 .
  • the illustrated system configuration will be described below as an example.
  • the first information processing device 11 includes a laser ranging device 14 .
  • the laser rangefinder 14 emits laser light. When the laser light hits an object such as a tree, it is reflected, and the reflected light is returned to the laser distance measuring device 14 . Next, the laser rangefinder 14 receives the reflected light with the sensor.
  • the laser rangefinder 14 compares the wavelengths of the transmitted light and the reflected light to measure the distance.
  • the laser rangefinder 14 may measure height as well as distance. That is, the laser range finder 14 may measure the distance to the object two-dimensionally or three-dimensionally.
  • the range in which the laser rangefinder 14 emits laser light is set in advance.
  • the laser rangefinder 14 measures a range of 360° in the horizontal direction (Yaw axis rotation direction) and 180° in the vertical direction (Pitch axis direction) of the user 10 .
  • the first information processing device 11 has a camera 15 .
  • the camera 15 photographs the surroundings of the user 10. Therefore, when the user 10 is in the forest, that is, when there are trees around the user 10, the camera 15 generates image data showing the surrounding trees.
  • the camera 15 is, for example, an omnidirectional camera, an omnidirectional camera, a stereo camera, a wide-angle camera, or a combination thereof. Note that the camera 15 may be a device that uses light other than visible light, such as infrared light.
  • the camera 15 is desirably a device capable of photographing the user 10 in a horizontal direction of 360°. However, the camera 15 does not have to shoot 360 degrees in the horizontal direction with one device or one frame. That is, the camera 15 may combine image data captured by a plurality of optical sensors or image data captured in a plurality of frames to generate image data captured in a horizontal direction of 360°.
  • the first information processing device 11 preferably includes, as the laser rangefinder 14 and the camera 15, a laser rangefinder for three-dimensional measurement, a stereo camera, and an omnidirectional camera. That is, the first information processing device 11 can accurately measure and recognize trees existing around the user 10 by including these devices.
  • the first information processing device 11 is desirably configured to communicate with the satellite 13 . That is, it is desirable that the first information processing device 11 include a transceiver for GNSS.
  • the first information processing device 11 can identify the current position through communication with GNSS.
  • the current position is specified in the form of latitude and longitude.
  • the range in which the current position can be identified by GNSS is determined, for example, by the radio wave intensity obtained as a result of communication with the satellite 13. That is, the first information processing device 11 determines that the accuracy of specifying the current position by GNSS is low when the environment is difficult to communicate with the satellites 13 .
  • the first information processing device 11 may make determinations other than the radio wave intensity. For example, if an area where the accuracy of current location identification by GNSS is poor is investigated in advance, and the current location is estimated to be approaching or within the area where the accuracy of current location identification is poor, etc. 1 information processing device 11 may determine that the accuracy of current location identification by GNSS is poor.
  • the result of specifying the current position is often either an estimated solution (Float) or a complete solution (Fix). . If it is an estimated solution, the accuracy may be poor. Therefore, for example, in the case of an estimated solution, the first information processing device 11 may determine that the accuracy of specifying the current position by GNSS is poor. .
  • the measurement result by the laser rangefinder 14, the image data captured by the camera 15, the position information by GNSS or the like, or the data indicating the analysis results of these will be referred to as "obtained data D3". It should be noted that the acquired data D3 may have other types.
  • FIG. 3 is a diagram showing an example of a situation in which the accuracy of specifying the current position by GNSS is relatively good and an example of a situation in which the accuracy of specifying the current position is relatively poor.
  • the reception environment for radio waves used in GNSS is likely to deteriorate due to the influence of trees. It can be said that this is a range in which the position specification accuracy is poor.
  • the reception environment for radio waves used in GNSS is not easily affected by trees, so it does not deteriorate, and it can be said that the current position can be specified with high accuracy. . That is, when a user exists at a certain position inside a forest, if the user judges his/her current position by GNSS, the higher the density of surrounding trees, the lower the accuracy of the current position judged by GNSS. Become.
  • the information processing system 100 may make determinations by adding factors that worsen GNSS communication in addition to trees. For example, the information processing system 100 may consider the presence or absence of a shield. Also, the ranges of the first area E1, the second area E2, etc. may partially overlap. Furthermore, the range in which the current position is specified with poor accuracy by GNSS, ie, the second region E2, may be set to be wide to some extent.
  • the first information processing device 11 preferably outputs to the user 10 using an output device or the like.
  • the output device is a transmission type (so-called see through type) head mounted display (hereinafter referred to as "HMD 16").
  • the output device is not limited to the HMD 16. That is, the output device may be any device or the like that can display information on a screen or the like.
  • the output device may be a smart phone, a watch-type information processing device, or the like.
  • the HMD 16 may operate in cooperation with a plurality of devices, such as outputting part of the information to another information processing device or outputting it by voice. By using a wearable device such as the HMD 16, the user 10 becomes so-called hands-free and can easily perform work.
  • the HMD 16 outputs information to the user 10 on the following screen.
  • FIG. 4 is a diagram showing an output example.
  • the HMD 16 displays in a format like the transparent screen 161 .
  • the transmissive area 162 is the scenery in the forest that the user 10 can see through a highly transmissive material such as glass. Then, the HMD 16 displays route information 163 , tree data 164 and the like overlaid on the transmissive area 162 . When outputting a plurality of tree data 164, the HMD 16 may shift the display positions of the trees, change the size of the trees, or omit some of the trees to make the information easier to see.
  • the HMD 16 may use Augmented Reality (AR) or the like.
  • AR Augmented Reality
  • the HMD 16 performs a visually augmented display in which digital information is superimposed on the real world viewed by the user 10 through the transmissive region 162 .
  • the HMD 16 outputs an AR display or the like in which virtual information is superimposed on the background of the actual landscape or the like.
  • the HMD 16 may accept input by recognizing a virtual keyboard or hand movements or gestures of the user 10 .
  • the route information 163 indicates the direction to the destination or the route to the destination.
  • the route information 163 is displayed with an arrow or the like as shown.
  • the route information 163 may be displayed in a format other than the arrow.
  • the route information 163 may be in the form of displaying directions or distances to the destination.
  • the tree data 164 is, for example, information about trees that exist within the transparent region 162 .
  • the tree data 164 includes a tree identification number (“ID” in the figure), a tree diameter at breast height (“DBH” in the figure), and a tree height (“H” in the figure). There is.) etc.
  • the tree data 164 may be of types other than these.
  • tree data 164 may include location, diameter at breast height, bend, slope, height, or volume.
  • the tree data 164 is obtained from the tree database D1. Various types of information are input in advance to the tree database D1.
  • the tree data 164 also includes operation information 165, disaster prevention information 166, and the like.
  • the operation information 165 and the disaster prevention information 166 are input in advance to the tree database D1 or the like.
  • the tree data 164 is output for the tree closest to the user. It should be noted that the output may specify a target tree, or may target a plurality of trees.
  • FIG. 5 is a diagram illustrating an example of overall processing.
  • the overall process is executed in the order of performing "pre-processing” first, and then performing "execution processing” after preparation by the "pre-processing” is completed.
  • the "pre-processing” and the "execution processing” do not have to be continuous.
  • the "pre-processing” does not have to be performed for each "execution process", and it is sufficient that it has been performed at least once before.
  • the information processing system 100 generates data indicating the arrangement of trees (hereinafter referred to as "map data").
  • map data is the result of measuring the inside of the forest with a laser ranging device or the like.
  • the positions of the trees that make up the map data may be input in such a manner that the measurer inputs the positions of the trees on the map.
  • the map data is stored in the second information processing device 12 in the form of a map database D2 or the like. Therefore, the map data can be obtained by accessing the map database D2.
  • Fig. 6 shows an example of map data.
  • map data is used to output a map based on information stored in map database D2.
  • the map data indicates the positions of trees based on the measurement results.
  • first tree TR1 the tree on the map data. Therefore, the map data accurately indicates the positional relationship and the like between the first trees TR1.
  • the information processing system 100 generates tree data.
  • the tree data is data indicating the characteristics of each first tree TR1.
  • the tree data is stored in the second information processing device 12 in a format such as the tree database D1. Therefore, tree data can be obtained by accessing the tree database D1.
  • FIG. 7 shows an example of tree data.
  • tree data is generated in a format in which the characteristics of each tree such as "DBH" and "tree height” are associated with "ID".
  • ID is an example of information that identifies each tree. Therefore, when the "ID" is specified, the information processing system 100 can specify which first tree TR1 in the map data.
  • “DBH” and “tree height” are the results of measuring each of the first trees TR1. It should be noted that the tree feature is information such as “DBH” and “tree height” that differs for each first tree TR1, and is preferably quantitative and information that indicates the shape of the tree.
  • the tree data include information such as "DBH” and "tree height” that can distinguish each tree even if the same type of trees are clustered together.
  • the tree data may be information other than "DBH" and "tree height".
  • the color may be stored in the tree data.
  • the information processing system 100 may store data about the ground. With such data, the information processing system 100 can predict the collapse or collapse of trees.
  • the execution process is executed in a state where the information processing system 100 can acquire the map data and the tree data after the pre-processing is executed. Note that the information processing system 100 does not need to acquire and update the map data and the tree data in real time, and may acquire and store the data in good communication conditions. In the following, the execution processing will be described with an example of processing for performing the position estimation processing in step S2.
  • step S2-1 the information processing system 100 takes an image of the user 10's surroundings. Then, the information processing system 100 generates image data representing surrounding trees. Therefore, trees appearing in the image data are trees that exist within a range determined by the angle of view of the camera 15 or the like. This image data is recorded in the information processing system 100 .
  • the information processing system 100 performs measurement using a laser.
  • the point cloud data at this time is recorded in the information processing system 100 .
  • the information processing system 100 analyzes the image data generated at step S2-1 and generates data indicating the analysis result. For example, the information processing system 100 recognizes trees appearing in the image data by image recognition or the like.
  • the information processing system 100 may use a stereo camera or the like to analyze the dimensions of trees captured in the image data, the distance from the current position to the trees, and the like.
  • Trees existing around the current position are recognized by step S2-2 or step S2-3.
  • a tree focused on based on the analysis result of the image data or the measurement result will be referred to as a "second tree”.
  • the second tree is arbitrarily selected from among the plurality of trees.
  • the information processing system 100 sets a tree or the like estimated to be closest to the position of the user 10 as the second tree.
  • the information processing system 100 associates the first tree TR1 with the second tree. That is, the information processing system 100 identifies which first tree TR1 is the second tree.
  • the information processing system 100 identifies the analysis result of the second tree, that is, the characteristics of the second tree. Then, the information processing system 100 searches for the first tree TR1 having the matching features based on the features of the single tree based on the tree data and the features of the layout based on the map data.
  • the information processing system 100 can acquire the tree height and DBH of the second tree, or the positional relationship with other trees, by referring to the analysis results obtained by analyzing the image data and the laser measurement results. Based on these data, the information processing system 100 searches the tree data and adopts as the first tree TR1 a tree whose height and DBH match, or a tree whose positional relationship matches another tree from the map data. .
  • the information processing system 100 may consider a certain allowable value when comparing numerical values. In other words, the information processing system 100 does not need to match only when the numerical value based on the measurement result of the second tree and the numerical value and position on the tree data completely match. For example, if the difference is within a preset tolerance, the information processing system 100 may determine that they match. Alternatively, if the features such as numerical values do not completely match, the information processing system 100 may match the most similar first tree TR1.
  • the information processing system 100 can match the first tree TR1 and the second tree based on the characteristics of the trees. Therefore, the information processing system 100 can accurately associate the first tree TR1 with the second tree.
  • the information processing system 100 may match multiple items. That is, the information processing system 100 associates the first tree TR1 having the same features with the second tree. By using a plurality of items in this manner, the correspondence can be made with higher accuracy.
  • a tree with the same characteristics that is, a tree that can be recognized as the first tree TR1 with a high probability among the second trees will be referred to as a "third tree".
  • step S2-5 the information processing system 100 determines whether or not there are a plurality of third trees. If a plurality of third trees exist (YES in step S2-5), the information processing system 100 proceeds to step S2-6. On the other hand, if a plurality of third trees do not exist (NO in step S2-5), the information processing system 100 proceeds to step S2-1.
  • the information processing system 100 identifies the current position. For example, the information processing system 100 identifies the current position as follows.
  • FIG. 8 is a diagram showing an example of processing for identifying the current position. An example in which the user 10 moves to a first point CP1, a second point CP2, a third point CP3, . . . will be described below.
  • the 31st tree TR31, the 32nd tree TR32, the 33rd tree TR33, the 34th tree TR34, and the 35th tree TR35 are specified as the 3rd trees.
  • the information processing system 100 can identify the intersection of the dotted lines in the figure as the current position. Further, when the current position can be specified, it is possible to specify the position and the direction of the tree seen in the image data or through the HMD 16 based on the current position. Therefore, the information processing system 100 can identify which tree in the map data or the like is the tree that can be seen in the image data or through the HMD 16 .
  • the current position at the start should have high positional accuracy, and from the positional information specified by the combination of several third trees, the angle between the trees centered on the device and the angle between the trees in the map data are compared. , may be specified such that its deviation is minimized.
  • the information processing system 100 may specify the range where each tree can be photographed, and specify the point where all the third trees can be photographed as the current position.
  • the information processing system 100 further identifies the current position.
  • the user 10 moves from the first point CP1 to the second point CP2 after a certain period of time has passed from the first point CP1.
  • the 31st tree TR31, 32nd tree TR32, 34th tree TR34, 35th tree TR35, 36th tree TR36, and 37th tree TR37 are identified as the 3rd trees.
  • the information processing system 100 can specify the current position with the intersection of the dotted lines in the figure as the second point CP2.
  • the current position is specified as follows.
  • the 32nd tree TR32, 36th tree TR36, 37th tree TR37, 38th tree TR38, and 39th tree TR39 are identified as the 3rd trees.
  • the information processing system 100 can specify the current position with the intersection of the dotted lines in the figure as the third point CP3.
  • three or more trees may be used to identify the current position.
  • Visual SLAM or the like may be used as the method for specifying the current position.
  • the information processing system 100 captures 360° of the user 10 in the horizontal direction with both the laser and the camera. In this way, when the entire circumference is photographed, the information processing system 100 can more accurately identify the current position.
  • the data obtained for specifying the position is sufficient data to obtain the tree position, tree height, and DBH.
  • the information processing system 100 analyzes the acquired data and updates the tree database D1, the map database D2, or the like (step S3-1).
  • the route search is realized, for example, by an algorithm or the like used for vehicle navigation or the like. However, it is desirable that route search and display be processed centering on trees. In particular, it is preferable that the trees are centered on the third tree, that is, the trees that can be identified by the correspondence.
  • the information processing system 100 can guide the user 10 to the destination.
  • the information processing system 100 may also calculate the distance, time, or the like to the destination using route information or the like. When such calculation is performed, the information processing system 100 can calculate the cost, time, or distance of transportation in forestry.
  • the information processing system 100 may switch between using GNSS and using an identification method as shown in FIG. 8 to identify the current position in step S2-6. For example, the information processing system 100 switches based on the information shown in FIG.
  • the information processing system 100 identifies the current position in the first area E1 or the third area E3 using the identification method shown in FIG. On the other hand, the information processing system 100 identifies the current position by GNSS in the second region E2.
  • the position used for switching determination may be estimated. For example, in the first region E1, there are cases where the current position cannot be identified by GNSS. Therefore, it may not be possible to specify a reference position for determining switching. In such a case, the information processing system 100 may estimate which region the user is in.
  • the information processing system 100 maintains the most recently measured speed and moving direction. Assuming that the user 10 has moved to the first area E1, it may be estimated.
  • the information processing system 100 can accurately identify the current position even in an environment where communication is difficult by switching between GNSS and tree position identification.
  • the second information processing device 12 receives and stores image data, route search results, movement history of the user 10, laser measurement results, map data, tree data, and the like from the first information processing device 11 and the like. good too.
  • the data may be distributed or redundantly stored in a plurality of devices. Additionally, the data may be updated.
  • the data may include the measurement results of drones, aircraft, etc.
  • the data may also be analyzed.
  • the route may be optimized with reference to the movement history of the user 10, that is, the result of the actual movement of the user 10, or the like.
  • the data be stored in a predetermined format for analysis, sharing, etc.
  • FIG. 9 is a diagram illustrating a functional configuration example of an information processing system.
  • the information processing system 100 includes a measurement unit 100F1, a first acquisition unit 100F2, a second acquisition unit 100F3, an imaging unit 100F4, a corresponding unit 100F5, a first identification unit 100F6, and the like.
  • the information processing system 100 preferably further includes a second identification unit 100F7, a determination unit 100F8, an output unit 100F9, a storage unit 100F10, and an update unit 100F11.
  • the illustrated functional configuration will be described below as an example.
  • the measurement unit 100F1 emits a laser beam from the current position to the surroundings, and performs a measurement procedure of measuring the distance and direction to each tree with respect to the current position.
  • the measurement unit 100F1 is implemented by the laser rangefinder 14 or the like.
  • the first acquisition unit 100F2 performs a first acquisition procedure for acquiring map data from the second information processing device 12 or the like.
  • the first acquisition unit 100F2 is realized by the interface 11H3 or the like.
  • the second acquisition unit 100F3 performs a second acquisition procedure for acquiring tree data from the second information processing device 12 or the like.
  • the second acquisition unit 100F3 is realized by the interface 11H3 or the like.
  • the photographing unit 100F4 performs a photographing procedure of photographing the surroundings of the user 10 and generating image data.
  • the imaging unit 100F4 is realized by the camera 15 or the like.
  • the correspondence unit 100F5 performs a correspondence procedure to associate the first tree with the second tree based on the analysis result of the image data analysis and the measurement result of the measurement unit 100F1.
  • the corresponding unit 100F5 is realized by the CPU 11H1 or the like.
  • the first identification unit 100F6 performs a first identification procedure of identifying the current position based on the positions of the plurality of third trees.
  • the first specifying unit 100F6 is realized by the CPU 11H1 or the like.
  • the second identification unit 100F7 performs a second identification procedure of identifying the current position by communicating with the satellite.
  • the second specifying unit 100F7 is realized by the interface 11H3 or the like.
  • the determination unit 100F8 performs a determination procedure for determining which of the first identification unit 100F6 and the second identification unit 100F7 should identify the current position. For example, it is implemented by the CPU 11H1 or the like.
  • the output unit 100F9 performs an output procedure for outputting tree data for the third tree.
  • the output unit 100F9 is realized by the HMD 16 or the like.
  • the storage unit 100F10 performs a storage procedure for storing data such as the acquired data D3 indicating the measurement results.
  • the data stored in the storage unit 100F10 may be analyzed. Also, map data, tree data, etc. are updated based on the analysis result or the stored data.
  • the storage unit 100F10 also stores measurement and imaging data.
  • the storage unit 100F10 is realized by the storage device 11H2 or the like.
  • the update unit 100F11 analyzes the data stored in the storage unit 100F10 and performs an update procedure for updating tree data, map data, or the like.
  • the updating unit 100F11 is realized by the CPU 11H1 or the like.
  • the information processing system 100 can accurately identify the current position even in an environment such as a forest where GNSS accuracy is poor.
  • the information processing system 100 can specify the position with high accuracy with an error of 10 centimeters or less.
  • the current position can be identified with high accuracy in this way, the positions of surrounding objects can also be grasped with high accuracy. Therefore, in AR display, it is possible to accurately superimpose and display the target object.
  • map data, tree data, etc. reflect changes and are updated daily to show the latest state. Therefore, the information processing system 100 easily updates various data based on changing forest environment information and the like.
  • Embodiments may be combinations of the above and below embodiments and variations.
  • AI Artificial intelligence
  • CNN Convolution Neural Network
  • FIG. 10 is a diagram showing an example of a network structure.
  • a process for reducing overfitting such as dropouts (also called “overfitting” or “overfitting”) may be performed.
  • processing such as dimension reduction may be performed.
  • the learning of the learning model and the execution by the trained model do not have to be performed by the same information processing device. That is, the learning of the learning model and the execution by the trained model may be performed by different information processing apparatuses.
  • a trained model may be generated by learning such as deep learning, distributed via a network or the like, and executed by a device different from the information processing device in which it was trained.
  • learning may be performed in addition to a learning model generated by learning in another information processing apparatus.
  • the learning model and the trained model are not limited to the CNN network structure.
  • the network structure may have a configuration such as RNN (Recurrent Neural Network) or LSTM (Long Short-Term Memory).
  • the learning model and the trained model may be configured with hyperparameters. That is, the learning model and the learned model may be partially configured by the user.
  • learning models and trained models are GNN (Graph Neural Network), etc. It may have a structure.
  • the learning model and the trained model may use other machine learning.
  • the learning model and the trained model may be subjected to preprocessing such as normalization by an unsupervised model.
  • the present invention is implemented by the information processing method exemplified above or a program (including firmware and programs equivalent thereto; hereinafter simply referred to as "program") that executes processing equivalent to the above-described processing. good too.
  • the present invention may be implemented by a program or the like written in a programming language or the like so as to issue a command to a computer and obtain a predetermined result.
  • the program may be configured such that part of the processing is executed by hardware such as an IC (Integrated Circuit) or an arithmetic unit such as a GPU (Graphics Processing Unit).
  • the information processing system 100 differs from the first embodiment in that the following routes are generated. In the following, overlapping explanations focusing on different points will be omitted.
  • are generated for each purpose. Specifically, three types of routes, ie, a “sidewalk”, a “forest road”, and a “forest road” are separately generated.
  • forest work roads are defined in the "Forest Work Road Construction Guideline (No. 22 Hayashi Seisei No. 656, Director General of the Forestry Agency, dated November 17, 2010)" and revised drafts, etc. (https://www. rinya.maff.go.jp/j/seibi/sagyoudo/attach/pdf/romousuisin-15.pdf).
  • forestry roads are routes used for collecting or transporting lumber.
  • the information processing system 100 generates a route that satisfies the requirements defined by such guidelines.
  • the information processing system 100 inputs the type of machine used for picking or carrying out materials, and generates a route that satisfies the width, slope, etc. specified by the guideline.
  • a sidewalk is a route that satisfies the width and slope that people can walk on.
  • Forest roads are routes on which vehicles can travel.
  • forest roads are defined in the "Forest Road Regulations (Rinno Road No. 107 Commissioner of the Forestry Agency Notification dated April 1, 1973)" and detailed operations, etc. (https://www.rinya.maff.go. jp/j/seibi/sagyoudo/pdf/kitei.pdf).
  • the forest road is a route that satisfies the width, slope, etc., specified by the guidelines.
  • a “light vehicle road” is a route that can be traveled by light vehicles with a total width of 1.8 meters or more and less than 3.0 meters.
  • the information processing system 100 adopts a part of the route when conditions such as width and inclination are satisfied. On the other hand, if conditions such as width and slope are not satisfied, the information processing system 100 searches for a route that does not pass through locations that do not satisfy the conditions.
  • Route conditions such as guidelines are determined in advance. Note that the route conditions are not limited to pointers or the like, and may have unique set values or the like.
  • the route may be generated by connecting existing routes that can be grasped in advance from maps, etc.
  • a route may be generated by selecting a location that is not an existing route on a map or the like. Therefore, routes are generated under different conditions for different purposes. For example, when a route is generated under conditions where it is possible to develop a new route due to construction or the like, the route may be generated including a portion that is not an existing route on a map or the like.
  • the route is generated by searching for a location set as a route in advance on a map, etc., that is, by searching for an existing route.
  • searching for existing routes and generating a route by combining existing routes is referred to as route “search”. If the types of routes are different, the information processing system 100 may be searched for different routes.
  • a route may be generated by combining search for existing routes and development of new routes.
  • FIG. 11 is a diagram showing an example of route generation processing in the second embodiment.
  • the information processing system 100 generates a route by the following process.
  • preprocessing should be executed before the on-site processing.
  • on-site processing An example in which pre-processing and on-site processing are performed in succession will be described below, but the overall processing is not limited to this. For example, if pre-processing has been performed previously, it may be skipped rather than being performed each time, and overall processing may begin with on-site processing.
  • the route generated by preprocessing will be referred to as the "first route”.
  • the first route is generated in advance in a conference room or the like.
  • a route generated by on-site processing is called a “second route”.
  • a second route is generated within a forest.
  • step S1101 the information processing system 100 inputs 3D (three-dimensional) data.
  • 3D data is data indicating the result of measuring the ground surface of a target forest. Therefore, with 3D data, the information processing system 100 can search for a route that satisfies a predetermined condition.
  • 3D data indicates the result of measurement performed by a laser measuring machine or the like.
  • step S1102 the information processing system 100 inputs route conditions.
  • the route conditions are guidelines, etc. Also, the route conditions may include parameters and the like used to generate the route.
  • step S1103 the information processing system 100 sets a start point and an end point. Therefore, the information processing system 100 generates the first route and the second route so as to connect the start point and the end point.
  • a waypoint or the like which is a point through which a route is routed from the start point to the end point, may be set.
  • the information processing system 100 generates a first route.
  • the first route is generated as follows.
  • FIG. 12 is a diagram showing an example of the first route.
  • An example of generating a first route from the start point ST1 to the end point ST2 will be described below.
  • the first route is generated as follows.
  • the tenth route R10 is a route with many angles that are nearly perpendicular to the contour line L1. Therefore, the tenth route R10 has a large slope and may not satisfy the route conditions.
  • the information processing system 100 generates the eleventh route R11 and the like. Compared with the tenth route R10, the eleventh route R11 has many points with small angles with respect to the contour line L1.
  • the first route is generated with a small slope like the eleventh route R11. Further, when multiple routes can be generated, the information processing system 100 selects, for example, a route having the shortest distance from the start point ST1 to the end point ST2 among the multiple routes. Note that the method for generating the first route may be a method other than the above.
  • the information processing system 100 can generate the first route.
  • the information processing system 100 executes on-site processing as follows after the pre-processing is executed, that is, after the first route is generated.
  • step S1105 the information processing system 100 inputs avoidance objects.
  • Avoidance objects are, for example, rocks or water.
  • the avoidance object is an object to be avoided on the route.
  • avoidance objects are specified on a map, or their positions are input in the form of coordinate values.
  • step S1106 the information processing system 100 generates a second route.
  • the second route is a route avoiding avoidance objects. Therefore, the second route is a route that does not pass through the position of the avoidance object and within a predetermined distance from the avoidance object.
  • the first route, the second route, or part of the route is generated, for example, by Dijkstra's algorithm using parameters as follows.
  • FIG. 13 is a diagram showing an example of route generation.
  • An example of generating a route R0 from the start point ST1 to the end point ST2 will be described below.
  • locations around the start point ST1 and the end point ST2 are divided into meshes as shown.
  • the mesh is the sides forming a rectangle with a side of 50 cm, the diagonal lines of the rectangle, and the like. It should be noted that, for example, the user sets the intervals of the meshes.
  • the first tree TR1 or the like is set based on 3D data, map data or the like.
  • the location where the first tree TR1 is located is a route that cannot be passed (indicated by "x" marks in the figure). Therefore, the location where the first tree TR1 is located is excluded from the route.
  • a route that cannot be passed through may be set manually.
  • tilt parameter p is a parameter (hereinafter referred to as "tilt parameter p") that sets the tilt condition for generating a route.
  • tilt parameter p is a parameter that sets the tilt condition for generating a route.
  • the slope parameter p is entered in the route conditions.
  • indicates an angle of inclination. Since the tilt angle ⁇ is an angle indicating the tilt, it does not take a negative value.
  • the tilt parameter p when the absolute value of "tan ⁇ " (shown as “
  • the tilt parameter p may be set other than the above. Therefore, the slope parameter p may be set to 2 steps or less, or 4 steps or more. Also, the setting such as "45°" for the inclination angle ⁇ may be set to any value by the user.
  • parameters may be set in consideration of factors other than inclination.
  • the parameter may be set to increase according to the degree of danger or the amount of water.
  • there may be a plurality of parameters.
  • the information processing system 100 calculates "L ⁇ p" (the calculation result of "L ⁇ p” is hereinafter referred to as "path length") by multiplying the path length L by the slope parameter p.
  • the information processing system 100 can generate a route with a small slope by searching for a route with a short path length. Moreover, using such a calculation algorithm enables high-speed calculation.
  • the first route is generated in advance so that the average slope is about 15°, so there are cases where it is not possible to consider the situation on the site. Specifically, in many cases, it is not possible to grasp whether or not there is an avoidance object before going to the site. On the other hand, evasive objects are found in the field. Therefore, the information processing system 100 changes the first route and generates the second route on site. In this way, it is desirable to be able to generate the second route based on the on-site situation.
  • a second route can be generated that reflects information that is not on the map or the like.
  • the second route can be a route with few steep work roads and a small volume of earth and sand to be cut out by machines such as excavators.
  • routes may be generated across multiple landowners. When such a route is generated, prior permission can be obtained from the land owner before using the route for construction or the like.
  • FIG. 14 is a diagram illustrating a functional configuration example of an information processing system according to the second embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a first route generation unit 100F21 and a second route generation unit 100F22.
  • the different points will be mainly described.
  • the first route generation unit 100F21 performs a first route generation procedure for generating the first route used by the user or the machine.
  • the first route generation unit 100F21 is implemented by the CPU 11H1 or the like.
  • the second route generation unit 100F22 When an avoidance object is input for the first route, the second route generation unit 100F22 performs a second route generation procedure for generating a second route that avoids the avoidance object.
  • the second route generation unit 100F22 is implemented by the CPU 11H1 or the like.
  • the basic route can be generated in advance.
  • avoidance objects that cannot be grasped on a map or the like in the field. It is desirable that the route does not pass through avoidance objects (a route that avoids a certain distance or more is desirable in some cases) and avoids avoidance objects and advances to the destination. For example, the avoidance object is visually recognized by the user 10 at the site. If the second route, which is a route avoiding such avoidance objects, can be generated at the site, the second route, which is a modified version of the first route, can be confirmed at the site. Therefore, the information processing system 100 can efficiently generate routes.
  • the third embodiment differs from the first embodiment in that it is used in a situation where there are multiple users.
  • the HMD 16 may be worn by at least one user. That is, the HMD 16 may be plural and worn by each user.
  • FIG. 15 is a diagram showing the overall configuration of an information processing system according to the third embodiment.
  • first user M1 and the second user M2 work together to cut down trees in a forest.
  • first user M1 wears HMD 16
  • first user M1 manages other users such as second user M2.
  • the second user M2 works. Note that the number of users may be three or more.
  • FIG. 16 is a diagram showing an example of prediction by the information processing system in the third embodiment.
  • the HMD 16 outputs the screen shown in the figure (within the screen, the 40th tree TR40 and the like are transparent scenery) to the first user M1 will be described.
  • the HMD 16 superimposes the virtual data of the first panel PL1 and the like on the translucent landscape such as the 40th tree TR40 and outputs the same.
  • the 40th tree TR40 is to be cut down by the first user M1 with a chainsaw.
  • the HMD 16 predicts the range in which the 40th tree TR40 may fall (hereinafter referred to as "dangerous range A1").
  • the danger range A1 is output as a circle indicating the entire circumferential direction centered on the 40th tree TR40.
  • the prediction results may be output in other formats.
  • the prediction result may be in the form of a fallen tree prediction A2.
  • the HMD 16 may also make predictions by color-coding trees within the danger range A1. Specifically, the HMD 16 may indicate the 40th tree TR40 in red and the 41st tree TR41 within the danger range A1 in yellow.
  • the information processing system 100 predicts the danger range A1 or the fallen tree prediction A2 based on, for example, the height of the 40th tree TR40 (the tree height is the value of "H" in the first panel PL1). That is, the danger range A1 is the entire circumference direction of the tree height centering on the position of the 40th tree TR40.
  • the danger range A1 may have some leeway for safety reasons.
  • the margin is set in advance such that the distance from the center is a predetermined distance greater than the height of the tree, or the distance from the center is several times greater than the height of the tree.
  • the information processing system 100 issues a warning when the 40th tree TR40 falls.
  • the first user M1 is the person in charge of the 40th tree TR40 and the second user M2 is the person in charge of the 41st tree TR41.
  • which user is in charge of which tree may be input.
  • the second user M2 is within the dangerous area A1. In such a case, the information processing system 100 warns the first user M1 that the second user M2 is within the dangerous area A1.
  • Warnings are given by light, sound, display, vibration, communication, or a combination of these.
  • the information processing system 100 emits warning light, emits a warning sound, vibrates, outputs a message that the second user M2 is within the danger range A1, or a combination thereof. .
  • the warning may be issued to the second user M2. Therefore, the information processing system 100 may issue a warning to the second user M2 by light, sound, display, vibration, communication, or a combination thereof. Further, information processing system 100 may issue a warning that first user M1 is in danger when first user M1 is within danger range A1.
  • the information processing system 100 may issue a warning to the information processing device owned by the second user M2 by communication.
  • the HMD 16 performs short-range communication and the like, and the information processing device owned by the second user M2 emits sound, emits light, vibrates, and sends a message to the information processing device owned by the second user M2. or a combination of these, etc.
  • the information processing system 100 grasps the position of the second user M2 by image recognition based on the image captured by the camera, presetting of the trees that the second user M2 is in charge of, or recognition of the second user M2 by another sensor. do. Note that the information processing system 100 may recognize the user and the position of the user based on temperature, motion, color, or the like.
  • a warning other than sound is desirable.
  • the sound produced by the chainsaw is loud, and the user may find it difficult to hear the surrounding sounds. Therefore, if the warning is, for example, light emitted by a laser pointer, the second user M2 can easily recognize the warning.
  • the warning is, for example, light emitted by a laser pointer, the second user M2 can easily recognize the warning.
  • a light or the like that can receive a warning without operating the device is desirable.
  • FIG. 17 is a diagram illustrating a functional configuration example of an information processing system according to the third embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a prediction unit 100F31 and a warning unit 100F32.
  • the different points will be mainly described.
  • the prediction unit 100F31 performs a prediction procedure for predicting the range where trees are likely to fall.
  • the prediction unit 100F31 is realized by the CPU 11H1 or the like.
  • the warning unit 100F32 performs a warning procedure of warning with light, sound, display, vibration, communication, or a combination thereof when the first user M1 or the second user M2 is within the range.
  • the warning unit 100F32 is realized by the output device 11H5 or the like.
  • FIG. 18 is a diagram showing an output example in the fourth embodiment.
  • FIG. 18A an example in which trees are present in a range close to the user 10 (hereinafter referred to as "close range A3") and at a position far from the user 10 will be described.
  • close range A3 a range close to the user 10
  • the fourth trees are the "42nd tree TR42", “43rd tree TR43”, and "44th tree TR44".
  • the fourth tree is a tree within the short range A3. That is, the 42nd tree TR42, the 43rd tree TR43, and the 44th tree TR44 are trees that are close to the user 10 .
  • the output setting is set in advance, such as "a range within 5 m". Note that the output setting may be other than the distance.
  • the output setting may be set to hide the type of trees to be hidden, or to hide trees that have been thinned. Also, the output setting is realized by a UI (User Interface) such as a slider or numerical input.
  • UI User Interface
  • FIG. 18B is a diagram showing an example of a screen output by the HMD 16 to the user 10.
  • the HMD 16 provides tree identification numbers ("ID” in the figure), tree breast height diameters ("ID” in the figure) for the 42nd tree TR42, the 43rd tree TR43, and the 44th tree TR44.
  • tree data such as tree height ("H” in the figure).
  • the HMD 16 does not display the tree data for the 45th tree TR45, which is a tree located outside the short distance range A3, that is, at a long distance from the user 10. .
  • the information processing system 100 extracts trees in a short distance for output and performs AR display.
  • the AR display is performed for trees that are distant from the user 10, such as the 45th tree TR45, it is often difficult for the user 10 to see many panels and the like because there are many trees in the forest.
  • the information processing system 100 is desirably set to output within a short range from the current position.
  • FIG. 19 is a diagram illustrating a functional configuration example of an information processing system according to the fourth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a setting output unit 100F40.
  • the different points will be mainly described.
  • the setting output unit 100F40 performs a setting output procedure for outputting tree data for the fourth tree located at a short distance from the current position.
  • the setting output unit 100F40 is realized by the output device 11H5 or the like.
  • the fifth embodiment differs from the first embodiment in that tree height is calculated.
  • the tree whose height is to be calculated will be referred to as the "fifth tree”.
  • FIG. 20 is a diagram showing an example of tree height calculation.
  • the overall processing is divided into, for example, "pre-processing” and "execution processing".
  • Pretreatment is performed, for example, before entering the forest.
  • execution processing is executed in the forest after the "pre-processing” is completed. Note that the "pre-processing” may be completed before the "execution processing", and the "pre-processing” and the “execution processing” do not have to be executed consecutively.
  • step S2001 the information processing system 100 performs calibration. For example, the information processing system 100 photographs a plurality of trees. Then, the chest height diameter measured by another measuring method is acquired. In this way, the information processing system 100 can measure the diameter at breast height of the photographed tree.
  • the information processing system 100 may be able to measure the chest height diameter of photographed trees using a measuring device such as a stereo camera.
  • the information processing system 100 can subsequently measure the diameter at breast height of the photographed trees based on the calibration data.
  • step S2002 the information processing system 100 calculates "thinness".
  • Thinness is a value that indicates the rate at which the diameter of a tree becomes thinner with respect to the height of the tree. Tree trunks taper from the base to the top. "Thinness” indicates the degree of change in thickness from the root to the treetop. The thickness is indicated by a diameter such as a diameter, for example. An example in which the diameter is the breast height diameter will be described below.
  • Thinness measures multiple diameters in one tree. Then, the information processing system 100 can calculate “thinness” by calculating how much the diameter changes with respect to the change in height.
  • the information processing system 100 can calculate the tree height of photographed trees by performing preprocessing (for example, on about three trees). Next, after the pre-processing is executed, the information processing system 100 executes execution processing as follows.
  • step S2003 the information processing system 100 photographs the fifth tree.
  • step S2004 the information processing system 100 measures the diameter and measured height of the fifth tree. For example, the information processing system 100 measures the diameter of the fifth tree based on the imaging data acquired in step S2003 and the calibration data. The information processing system 100 also calculates the height of the measurement point where the diameter was measured.
  • the information processing system 100 may measure a diameter at a specific measurement height, such as the chest height diameter. That is, the information processing system 100 only needs to be able to grasp the diameter and the measurement height at which the diameter is measured.
  • step S2005 the information processing system 100 calculates the height of the fifth tree. Specifically, the information processing system 100 calculates the height of the fifth tree based on the "slenderness", diameter, and measured height.
  • the information processing system 100 can calculate the height of the fifth tree. If the tree height can be calculated in this way, for example, "H" in the tree data 164 shown in FIG. 4 can be output.
  • the information processing system 100 can also calculate the tree height by using the radius or width instead of the diameter.
  • FIG. 21 is a diagram illustrating a functional configuration example of an information processing system according to the fifth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a diameter measurement unit 100F51, a third acquisition unit 100F52, and a tree height calculation unit 100F53.
  • the different points will be mainly described.
  • the diameter measurement unit 100F51 When the fifth tree is photographed and appears in the image data, the diameter measurement unit 100F51 performs a diameter measurement procedure for measuring the diameter of the fifth tree at a predetermined measurement height based on the image data.
  • the diameter measuring unit 100F51 is realized by the CPU 11H1 or the like.
  • the third acquisition unit 100F52 performs a third acquisition procedure for acquiring the ratio of "thinning" and the like for each forest based on the measured height and diameter.
  • the third acquisition unit 100F52 is realized by the CPU 11H1 or the like.
  • the tree height calculation unit 100F53 performs a tree height calculation procedure for calculating tree height based on the diameter and ratio.
  • the tree height calculator 100F53 is realized by the CPU 11H1 or the like.
  • the information processing system 100 can accurately calculate the range in which the tree falls. Also, if the height of a tree can be calculated, for example, the information processing system 100 can calculate which route is the closest to knocking down a tree for carrying out, etc., and can make a carrying out plan.
  • the sixth embodiment differs from the first embodiment in that the following marks can be output.
  • FIG. 22 is a diagram showing an output example of marks in the sixth embodiment. For example, a case where the 46th tree TR46 is knocked down by work will be described as an example.
  • the HMD 16 displays the virtual line MK superimposed on the 46th tree TR46 in AR display.
  • the virtual line MK is an example of marks at regular intervals starting from the end of the 46th tree TR46.
  • the virtual line MK is output every 3 meters.
  • the constant interval is a preset value.
  • the mark may be in a form other than the virtual line MK. Further, when another user has an information processing device, the mark may be displayed on the information processing device owned by the other user.
  • the mark is not limited to output by AR display, and the information processing system 100 may be provided with a laser pointer or the like, and the position may be indicated by light from the laser pointer.
  • the information processing system 100 includes a measuring device capable of measuring length, such as a stereo camera. With such a measuring device, the information processing system 100 can output marks at regular intervals, such as virtual lines MK, starting from the end of the 46th tree TR46.
  • FIG. 23 is a diagram illustrating a functional configuration example of an information processing system according to the sixth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a mark output unit 100F60.
  • the different points will be mainly described.
  • the mark output unit 100F60 performs a mark output procedure for outputting marks at regular intervals to trees.
  • the mark output unit 100F60 is realized by the output device 11H5 or the like.
  • the user can grasp where the regular interval is. For example, so-called "marking work" can be performed efficiently.
  • the user may cut the 46th tree TR46 at regular intervals. Therefore, the information processing system 100 indicates the position where the user cuts with a mark. With such a mark, the user can work efficiently.
  • the seventh embodiment differs from the first embodiment in that the route actually traveled by the user 10 (hereinafter referred to as "passing route 71") is learned.
  • the information processing system 100 generates routes such as the first route or the second route in the second embodiment.
  • the route generated by the information processing system 100 with respect to the transit route 71 will be referred to as a "generated route 72".
  • the generated route 72 may be generated manually or the like.
  • the information processing system 100 records the passing route 71 .
  • the information processing system 100 records the passing route 71 as a so-called “log” or "trajectory". Note that the information processing system 100 may record image data and the like together with the passage route 71 .
  • a passing route 71 is obtained by recording the current position at regular time intervals and connecting the current positions in chronological order.
  • the transit route 71 may differ from the generated route 72. That is, even if the information processing system 100 shows the generated route 72 to the user 10 , the user 10 may take a different route from the generated route 72 . Specifically, this is the case where there is an avoidable object or the like on the route even if an attempt is made to pass through the generated route 72 .
  • the information processing system 100 may record the input by the user 10, image data, sensor data, etc. together with the current position information. In this way, avoidance objects and the like can also be learned if there is more information than the position.
  • FIG. 24 is a diagram illustrating a functional configuration example of an information processing system according to the seventh embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a route recording unit 100F71 and a learning unit 100F72 for learning.
  • the upper diagram of FIG. 24 shows a configuration in which the information processing system 100 serves as a learning device.
  • the lower diagram of FIG. 24 shows a configuration in which the information processing system 100 becomes an execution device that acquires the trained model ML2 from the learning device and executes it.
  • the information processing system 100 differs from the first embodiment in that it further includes a learned model acquisition unit 100F73 and a route generation unit 100F74 after learning, that is, in a configuration that becomes an execution device.
  • a learned model acquisition unit 100F73 and a route generation unit 100F74 after learning, that is, in a configuration that becomes an execution device.
  • the route recording unit 100F71 performs a route recording procedure for recording the passing route 71.
  • the route recording unit 100F71 is realized by the storage device 11H2 or the like.
  • the learning unit 100F72 performs a learning procedure of making the learning model ML1 learn the passing route 71 and generating a learned model ML2.
  • the learning unit 100F72 is realized by the CPU 11H1 or the like.
  • the trained model acquisition unit 100F73 performs a trained model acquisition procedure for acquiring the trained model ML2.
  • the learned model acquisition unit 100F73 is realized by the interface 11H3 or the like.
  • the route generation unit 100F74 performs a route generation procedure for generating the generation route 72 using the learned model ML2.
  • the route generation unit 100F74 is realized by the CPU 11H1 or the like.
  • the information processing system 100 may further learn after learning. That is, the information processing system 100 may be configured to include all of the route recording unit 100F71, the learning unit 100F72, and the route generating unit 100F74. Also, learning and route generation may be performed by the same device. Therefore, the information processing system 100 may be configured to further learn the results of the “actual” route generation as learning data.
  • the learning model ML1 and the learned model ML2 are realized by AI such as Bayesian Network, for example.
  • AI such as Bayesian Network
  • the learning model ML1 and the learned model ML2 are defined with link sources (parent nodes) as conditions and link destinations (child nodes) with conditional probabilities. Therefore, using a Bayesian network makes it easy to understand the factor relationships between parent nodes and child nodes based on probabilities.
  • Bayesian networks are suitable for searching multiple routes at the same time.
  • the information processing system 100 may use other machine learning.
  • the information processing system 100 can learn the passage route 71 and generate the generated route 72 that avoids the avoidance object when there is an avoidance object.
  • the information processing system 100 can optimize parameters such as the slope parameter p. Therefore, the information processing system 100 can generate the generated route 72 that does not require a slope or the like for the user 10 .
  • the eighth embodiment differs from the first embodiment in that biometric information and the like are used.
  • Biometric information is, for example, heart rate, respiration rate, walking speed, body temperature, blood pressure, heart sound, electrocardiogram, gaze, sway, electroencephalogram, or a combination thereof.
  • the biometric information may be any data that allows the user 10's condition to be grasped.
  • the biometric information may include gender, age, mountaineering history, and the like.
  • the information processing system 100 also includes a sensor that matches the biological information to be measured.
  • the information processing system 100 uses biometric information acquired from the user 10 to create a route (hereinafter, a route created based on biometric information is referred to as a "third route"). Specifically, the information processing system 100 measures the heart rate and generates a route that puts less load on the user 10 .
  • the route can be generated based on the slope parameter p and the like.
  • the information processing system 100 generates a third route using biometric information as a parameter (hereinafter referred to as "biometric parameter"). For example, even if the slope is not large, the road is bad and the user 10 may be burdened.
  • a route with a high heart rate will have a high biometric parameter, similar to the slope parameter p in FIG.
  • the information processing system 100 determines whether or not there is a load can be detected, for example, by an increase in the heart rate value. Therefore, the information processing system 100 generates the third route so as to avoid places where the load is applied to the user 10 .
  • biometric information may be used for occupational accidents, disasters, distress rescue, route evaluation, and the like.
  • FIG. 25 is a diagram illustrating a functional configuration example of an information processing system according to the eighth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a biological information acquisition unit 100F81 and a third route generation unit 100F82.
  • the biometric information acquisition unit 100F81 performs a biometric information acquisition procedure for acquiring biometric information of the user 10 .
  • the biometric information acquisition unit 100F81 is realized by the interface 11H3 or the like.
  • the third route generation unit 100F82 performs a third route procedure for generating a third route based on biometric information.
  • the third route generation unit 100F82 is realized by the CPU 11H1 or the like.
  • the information processing system 100 can acquire biometric information and grasp routes that place a heavy load on the user 10 or routes that place a heavy load on the user 10 . Then, the information processing system 100 generates routes so as to avoid routes with heavy loads. In this way, the information processing system 100 can generate a route with a light load on the user 10 according to the biometric information.
  • the ninth embodiment differs from the first embodiment in that an object of interest or the like is used.
  • Objects of interest are objects that affect construction work, are dangerous, or have an impact on route generation. Also, the object of interest may be an avoidance object.
  • the object of interest is water. Whether or not water is flowing can often not be grasped only by map data or a map. Therefore, when water or a water path (water supply) in which water is flowing (hereinafter simply referred to as "water") is present at the current position, the user 10 associates the current position with information about the presence of water. Input to processing system 100 . That is, the information processing system 100 inputs the position of water.
  • FIG. 26 is a diagram showing an input example of an object of interest.
  • the object of interest 90 is displayed so as to indicate the location on a map or the like.
  • the object of interest 90 is input by the user 10 who has found it by operating an input device, or is input as a result of detection by a sensor or the like.
  • information other than position information may be input for the object of interest 90 .
  • the type of the object of interest 90, the date of discovery, image data, or the like may be input.
  • FIG. 27 is a diagram illustrating a functional configuration example of an information processing system according to the ninth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes an object-of-interest input unit 100F90.
  • the object-of-interest input unit 100F90 performs an object-of-interest input procedure for inputting avoidance objects, objects of interest that affect construction work, are dangerous, or have an effect on route generation.
  • the object-of-interest input unit 100F90 is realized by the input device 11H4 or the like.
  • the information processing system 100 can determine where in the forest an object or the like that affects construction work, is dangerous, or affects route generation. can be grasped. Therefore, the information processing system 100 can update more detailed information as the forest environment information. With such information, construction plans can be made easier.
  • the tenth embodiment differs from the first embodiment in that aviation data, administrative information, or owner information is integrated.
  • Aerial data is, for example, data obtained by photographing forests from the sky with an aircraft or drone, or by emitting a laser. Such results indicate that the position of the tree (so-called “tree top position") does not differ from the data obtained by emitting a laser beam from the current position on the ground (hereinafter referred to as "ground data"). may occur. Therefore, the information processing system 100 integrates aviation data and ground data as follows.
  • FIG. 28 is a diagram showing an example of integration processing in the tenth embodiment.
  • step S2801 the information processing system 100 extracts three trees that can be judged to be at the same position in the aerial data and the ground data. Note that the number of lines to be extracted can be set in advance and is an arbitrary number.
  • the information processing system 100 performs vector space linear transformation so that the distance between the tree vertex position of the aerial data and the position of the tree indicated by the ground data is minimized.
  • FIG. 29 is a diagram showing an example of aviation data.
  • FIG. 30 is a diagram showing an example of ground data.
  • step S2802 the information processing system 100 again linearly transforms the space vectors of the trees extracted in step S2801 with the closest point between the aerial data and the ground data as the same tree.
  • step S2803 the information processing system 100 identifies the same tree. For example, if the positional error is within 2 m and the breast height diameter is within 14 cm between aerial data and ground data, the same tree is specified.
  • the information processing system 100 integrates aerial data and ground data. In this way, the information processing system 100 can refine tree information based on aviation data or the like.
  • the information processing system 100 may also integrate administrative information or owner information.
  • Administrative information is a forest ledger or a forest ledger. That is, the administrative information is a ledger or the like in which the administration describes information on boundaries, owners, or forests based on various laws such as the Forest Act.
  • the information processing system 100 may integrate administrative information or owner information and output information such as boundaries or owners together. When such information is integrated, the user 10 can grasp boundaries or where different owners start.
  • FIG. 31 is a diagram illustrating a functional configuration example of an information processing system according to the tenth embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a data integration unit 100F100.
  • the data integration unit 100F100 performs data integration procedures for integrating aviation data or administrative information.
  • the data integration unit 100F100 is implemented by the CPU 11H1 or the like.
  • the information processing system 100 can integrate the measurement results and the like of the measurement unit 100F1 with other data. As a result, the measurement result can be reflected in other data, or the other data can be reflected in the measurement result.
  • the eleventh embodiment differs from the first embodiment in that there is no communication with an external device. That is, the eleventh embodiment is a stand-alone type.
  • FIG. 32 is a diagram showing a functional configuration example of an information processing system according to the eleventh embodiment.
  • the information processing system 100 differs from the first embodiment in that it further includes a first storage unit 100F111 and a second storage unit 100F112.
  • the first storage unit 100F111 performs a first storage procedure for storing map data.
  • the first storage unit 100F111 is realized by the storage device 11H2 or the like.
  • the second storage unit 100F112 performs a second storage procedure for storing tree data.
  • the second storage unit 100F112 is realized by the storage device 11H2 or the like.
  • the information processing system 100 can use the data even in environments where communication is not very good in the forest.
  • the results measured by OWL can reduce the amount of data.
  • 1 hectare (ha) can be 8 megabytes (MB). So even 1000 hectares of forest is 8 gigabytes (GB) and so on. Therefore, 8 gigabytes is a capacity that can be stored in a medium such as an SD card (registered trademark).
  • tree data specifically, data indicating tree position, chest height diameter, tree height information, etc.
  • ground data (3D data format )
  • mesh data data used for calculating routes, etc.
  • kB kilobytes
  • FIG. 33 is a diagram showing experimental results.
  • Experimental result RS shows the result of this experiment.
  • the current position is first obtained by GNSS or the like at the entrance of the forest (environment where communication by public line is possible). Therefore, at the starting position, the current position by GNSS and the current position specified by the information processing system 100 start with almost no error.
  • the user starts from the starting point and walks through the forest to the destination.
  • the result of plotting the result of specifying the current position while walking in the forest is the illustrated result. Then, it was investigated to what extent there is a deviation when making one round trip between the starting point and the destination through the forest.
  • the experimental result RS is the measurement result of the position by the information processing system 100 shown in FIG. 1 and the like.
  • the comparison result CO is the position measurement result by GNSS.
  • CO produced a cumulative deviation of about 5 meters.
  • the experimental results RS in the forest, the information processing system 100 can accurately identify the current position with a cumulative error of 5 meters or less.
  • the information processing system 100 can specify the position with higher accuracy than GNSS or the like.
  • the information processing system 100 can perform the position estimation at a radius of about 40 meters at a high speed of about 2 seconds.
  • each tree can be easily managed. For example, when managing by GNSS or the like, a tag or the like is attached to each tree, but it is often difficult to specify the tree in the forest with the tag. In addition, since the information processing system 100 can be managed without a tag or the like, management can be easily performed.
  • the information processing system 100 is not limited to forestry, and may be used for trail running, mountain biking, survival games, or the like. Further, the information processing system 100 may be mounted on a heavy machine or the like.
  • the method of emitting a laser beam to the surroundings and measuring the surroundings in the forest is preferably OWL (registered trademark), that is, the method described in Japanese Patent No. 5269729 or the like.
  • OWL registered trademark
  • the information processing system 100 may use a camera or the like other than OWL (registered trademark).
  • the program causes the computer to execute the above-described processes by cooperating with the arithmetic device, control device, storage device, etc. of the computer. That is, the program is loaded into the main storage device or the like, issues instructions to the arithmetic unit to perform arithmetic operation, and operates the computer.
  • the program may be provided via a computer-readable recording medium or an electric communication line such as a network.
  • a communication network of a general public line for example, Long Term Evolution (LTE), wireless LAN, etc.
  • LTE Long Term Evolution
  • LAN wireless LAN
  • the program may be provided via a computer-readable recording medium or an electric communication line such as a network.
  • communication may not be established with a communication network of a general public line (for example, Long Term Evolution (LTE), wireless LAN, etc.). Therefore, communication using the 920 MHz band is desirable in forests.
  • LTE Long Term Evolution
  • the present invention may be implemented in a system composed of multiple devices. That is, multiple computerized diagnostic systems may perform the processes described above redundantly, in parallel, distributed, or a combination thereof. Therefore, the present invention may be realized by devices with hardware configurations other than those shown above, and systems other than those shown above.
  • the present invention realizes the use of forest space and can contribute to SDGs goals "3", “4", “8”, “9”, “11”, and “12".
  • the present invention can realize sustainable management of forests and contribute to SDGs goals "6", “11”, “13”, “14”, and “15”.
  • the present invention contributes to the realization of smart forestry, improves the production, processing, and distribution of timber, and achieves SDGs goals "5", "8", “9", "11”, and It can contribute to "12” and so on.
  • the present invention contributes to the realization of smart forestry, improves the use of wood, and achieves goals 7, 8, 9, 11, 12, and 13 of the SDGs. etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

森林内等であっても、情報処理装置がユーザの位置等を精度良く特定する。 森林でユーザの現在位置を特定する情報処理装置が、前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測部と、前記森林を構成する樹木の配置を示すマップデータを取得する第1取得部と、前記マップデータが示す前記樹木の特徴を示す樹木データを取得する第2取得部と、前記ユーザの周辺を撮影して画像データを生成する撮影部と、前記画像データを解析した解析結果、及び、前記計測部による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応部と、記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定部とを備えることを特徴とする。

Description

森林用の情報処理装置、情報処理システム、及び、情報処理方法
 本発明は、森林用の情報処理装置、情報処理システム、及び、情報処理方法に関する。
 Simultaneous Localization and Mapping(SLAM)、又は、Global Navigation Satellite System(GNSS)等の技術が広く知られている。
 また、持続可能な開発目標(Sustainable Development Goals、持続可能な開発のための2030アジェンダ、平成27(2015)年9月25日国連サミット採択、以下「SDGs」という。)の推進に向けた取り組みが行われている。SDGsには、森林、林業、及び、木材産業等を通じて森林を整備及び保全する等が関係する。
 森林を調査するために、まず、ドローンが、上空からレーザ光を発して、樹木の位置等を特定して森林を調査する。このようにして、レーザ計測データが生成される。次に、レーザ計測データに対し、地理情報システム(GIS)から得られる地理的情報を重ね合わせる処理が行われる。さらに、ノイズ除去等の処理が行われる。このようにして、樹冠を高精度に抽出する等を行う森林資源情報算定方法が知られている(例えば、特許文献1等を参照)。
 また、植物の配置を示すマップを自動的に生成するために、システムが、樹木を撮影する。さらに、システムは、撮影位置、及び、撮影方向を特定する。次に、システムは、画像、撮影位置、及び、撮影方向に基づいて3次元データを取得する。このようにして得られる3次元データを平面上に投影してマップを生成する技術が知られている(例えば、特許文献2を参照)。
 ほかにも、OWL(登録商標)(Optical Woods Ledger)(以下「OWL(登録商標)」という。)のように、レーザ光を用いて、3D形式で森林地図を作成し、かつ、計測データから森林資源量等を計算する技術が知られている(例えば、特許文献3を参照)。
特開2018-84472号公報 特開2017-211805号公報 特許第5269729号公報
 従来の技術では、常にGNSSにより、ユーザの位置等が特定される。一方で、森林内等では、GNSSでは、計測が難しい場合があり、常にGNSSを用いて位置を検出すると、精度が悪くなる課題がある。
 本発明は、森林内であっても、ユーザの現在位置等を精度良く特定することを目的とする。
 上記の課題を解決するため、本発明の一態様では、情報処理装置は、
 森林でユーザの現在位置を特定する情報処理装置であって、
 前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測部と、
 前記森林を構成する樹木の配置を示すマップデータを取得する第1取得部と、
 前記マップデータが示す前記樹木の特徴を示す樹木データを取得する第2取得部と、
 前記ユーザの周辺を撮影して画像データを生成する撮影部と、
 前記画像データを解析した解析結果、及び、前記計測部による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応部と、
 前記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定部と
を備える。
 本発明によれば、森林内であっても、ユーザの現在位置等が精度良く特定できる。
情報処理システムの全体構成を示す図である。 情報処理装置のハードウェア構成例を示す図である。 GNSSによる現在位置の特定精度が比較的良くなる状況の例と、現在位置の特定精度が比較的悪くなる状況の例を示す図である。 出力例を示す図である。 全体処理例を示す図である。 マップデータの例を示す。 樹木データの例を示す。 現在位置を特定する処理の例を示す図である。 情報処理システムの機能構成例を示す図である。 ネットワーク構造の例を示す図である。 第2実施形態におけるルート生成処理の例を示す図である。 第1ルートの例を示す図である。 ルートの生成例を示す図である。 第2実施形態における情報処理システムの機能構成例を示す図である。 第3実施形態における情報処理システムの全体構成を示す図である。 第3実施形態における情報処理システムによる予測の例を示す図である。 第3実施形態における情報処理システムの機能構成例を示す図である。 第4実施形態における出力例を示す図である。 第4実施形態における情報処理システムの機能構成例を示す図である。 樹高の計算例を示す図である。 第5実施形態における情報処理システムの機能構成例を示す図である。 第6実施形態における目印の出力例を示す図である。 第6実施形態における情報処理システムの機能構成例を示す図である。 第7実施形態における情報処理システムの機能構成例を示す図である。 第8実施形態における情報処理システムの機能構成例を示す図である。 注目物の入力例を示す図である。 第9実施形態における情報処理システムの機能構成例を示す図である。 第10実施形態における統合処理例を示す図である。 航空データの例を示す図である。 地上データの例を示す図である。 第10実施形態における情報処理システムの機能構成例を示す図である。 第11実施形態における情報処理システムの機能構成例を示す図である。 実験結果を示す図である。
 以下、添付する図面を参照して、具体例を説明する。なお、以下の説明において、図面に記載する符号は、同一の要素を指す。
 [第1実施形態]
 <全体構成例>
 図1は、情報処理システムの全体構成を示す図である。例えば、情報処理システム100は、主に、第1情報処理装置11、及び、第2情報処理装置12等の情報処理装置で構成する。第1情報処理装置11、及び、第2情報処理装置12は、ネットワークを介してデータを送受信する。
 第1情報処理装置11、及び、第2情報処理装置12等の情報処理装置は、例えば、以下のような装置である。
 <情報処理装置のハードウェア構成例>
 図2は、情報処理装置のハードウェア構成例を示す図である。例えば、第1情報処理装置11は、Central Processing Unit(CPU、以下「CPU11H1」という。)、記憶装置11H2、インタフェース11H3、入力装置11H4、及び、出力装置11H5等を有するハードウェア構成である。
 CPU11H1は、演算装置及び制御装置の例である。例えば、CPU11H1は、プログラム又は操作等に基づいて演算を行う。
 記憶装置11H2は、メモリ等の主記憶装置である。なお、記憶装置11H2は、SSD(Solid State Drive)、又は、ハードディスク等の補助記憶装置があってもよい。
 インタフェース11H3は、ネットワーク、又は、ケーブル等を介して外部装置とデータを送受信する。例えば、インタフェース11H3は、コネクタ又はアンテナ等である。
 入力装置11H4は、ユーザによる操作を入力する装置である。例えば、入力装置11H4は、マウス又はキーボード等である。
 出力装置11H5は、ユーザに対して処理結果等を出力する装置である。例えば、出力装置11H5は、ディスプレイ等である。
 なお、第1情報処理装置11は、上記以外のハードウェア資源を内部又は外部に更に有するハードウェア構成であってもよい。また、第1情報処理装置11は、複数の装置であってもよい。
 また、第1情報処理装置11は、第2情報処理装置12と同じハードウェア構成でもよいし、異なるハードウェア構成でもよい。
 例えば、第1情報処理装置11は、ユーザ10が持ち運ぶモバイル型のPersonal Computer(PC)等である。一方で、第2情報処理装置12は、データベースの管理等を行うサーバである。
 したがって、第1情報処理装置11は、ユーザ10の現在位置にある情報処理装置である。以下、ユーザ10の現在位置と第1情報処理装置11の位置は一致であるとし、単に「現在位置」という。一方で、第2情報処理装置12は、位置を問わない。
 なお、情報処理システム100は、図示する構成に限られない。例えば、情報処理システム100は、第1情報処理装置11、及び、第2情報処理装置12以外に装置を有してもよい。以下、図示するシステム構成を例に説明する。
 <レーザ測距装置の例>
 第1情報処理装置11は、レーザ測距装置14を備える。
 レーザ測距装置14は、レーザ光を発する。そして、レーザ光は、樹木等の対象物に当たると反射し、反射光がレーザ測距装置14に返る。次に、レーザ測距装置14は、センサで反射光を受信する。
 例えば、レーザ測距装置14は、発信光と反射光の波長を比較して距離等を計測する。
 なお、レーザ測距装置14は、距離に限られず、高さも計測してよい。すなわち、レーザ測距装置14は、対象物までの距離を2次元、又は、3次元で計測してもよい。
 また、レーザ測距装置14は、レーザ光を発する範囲が事前に設定される。例えば、レーザ測距装置14は、ユーザ10の水平方向(Yaw軸回転方向である。)において360°、及び、垂直方向(Pitch軸方向である。)において180°の範囲を計測する。
 <カメラの例>
 第1情報処理装置11は、カメラ15を備える。
 カメラ15は、ユーザ10の周辺を撮影する。したがって、ユーザ10が森林内、すなわち、ユーザ10の周辺に樹木があると、カメラ15は、周辺の樹木を示す画像データを生成する。
 カメラ15は、例えば、全天球カメラ、全方位カメラ、ステレオカメラ、広角カメラ、又は、これらの組み合わせである。なお、カメラ15は、可視光以外の光、例えば、赤外光等を用いる装置でもよい。
 カメラ15は、ユーザ10の水平方向360°を撮影できる装置が望ましい。ただし、カメラ15は、1台の装置、又は、1フレームで水平方向360°を撮影しなくともよい。すなわち、カメラ15は、複数の光センサで撮影した画像データ、又は、複数のフレームで撮影した画像データを組み合わせて、水平方向360°を撮影した画像データを生成してもよい。
 なお、第1情報処理装置11は、レーザ測距装置14、及び、カメラ15として、3次元を計測するレーザ測距装置、ステレオカメラ、及び、全天球カメラを備えるのが望ましい。すなわち、第1情報処理装置11は、これらの装置を備えると、精度良くユーザ10の周辺に存在する樹木を計測及び認識できる。
 <GNSSの例>
 第1情報処理装置11は、衛星13と通信を行う構成であるのが望ましい。すなわち、第1情報処理装置11は、GNSS用の送受信機を備えるのが望ましい。
 第1情報処理装置11は、GNSSとの通信により、現在位置を特定できる。例えば、現在位置は、緯度、及び、経度等の形式で特定される。
 なお、GNSSで現在位置が特定できる範囲は、例えば、衛星13との通信を行った結果の電波強度等で判断される。すなわち、第1情報処理装置11は、衛星13との通信が難しい環境であると、GNSSによる現在位置の特定精度が悪い状態であると判断する。
 ただし、第1情報処理装置11は、電波強度以外で判断してもよい。例えば、事前にGNSSによる現在位置の特定精度が悪い範囲等が調査され、現在位置の特定精度が悪い範囲に現在位置が近づいた、又は、範囲内であると推定される場合等には、第1情報処理装置11は、GNSSによる現在位置の特定精度が悪い状態であると判断してもよい。
 ほかにも、Real Time Kinematic(RTK)-GNSSでは、位相差の計算状況により、現在位置の特定結果は、推測解(Float)か、又は、完全解(Fix)のどちらかになる場合が多い。推測解であると、精度が悪い場合があるため、例えば、推測解である場合等に、第1情報処理装置11は、GNSSによる現在位置の特定精度が悪い状態であると判断してもよい。
 以下、レーザ測距装置14による計測結果、カメラ15による撮影の画像データ、GNSS等による位置情報、又は、これらの解析結果等を示すデータを「取得データD3」という。なお、取得データD3は、他に種類があってもよい。
 図3は、GNSSによる現在位置の特定精度が比較的良くなる状況の例と、現在位置の特定精度が比較的悪くなる状況の例を示す図である。例えば、第1地域E1、又は、第3地域E3のように、一定数以上の樹木が存在する地域は、GNSSにおいて利用される電波の受信環境が樹木の影響を受けて悪化しやすいので、現在位置の特定精度が悪い範囲といえる。
 一方で、第2地域E2のように、樹木が存在しない地域は、GNSSにおいて利用される電波の受信環境が樹木の影響を受けにくいので、悪化せず、現在位置の特定精度が良い範囲と言える。すなわち、森林の内部のある位置にユーザが存在するとき、当該ユーザが自己の現在位置をGNSSによって判断するならば、周囲の樹木の密度を高いほど、GNSSによって判断される現在位置の精度は低くなる。
 なお、情報処理システム100は、樹木以外にGNSSの通信を悪化させる要素を加えて判断してもよい。例えば、情報処理システム100は、遮蔽物の有無等を考慮してもよい。また、第1地域E1、及び、第2地域E2等は、範囲が一部重複してもよい。さらに、GNSSによる現在位置の特定精度が悪い範囲、すなわち、第2地域E2は、ある程度広く設定されてもよい。
 <出力装置の例>
 第1情報処理装置11は、出力装置等でユーザ10に対して出力を行うのが望ましい。例えば、出力装置は、透過型(いわゆるシースルー(see thrrough)型である。)のヘッドマウントディスプレイ(以下「HMD16」という。)である。
 なお、出力装置は、HMD16に限られない。すなわち、出力装置は、画面等に情報が表示できる装置等であればよい。例えば、出力装置は、スマートフォン、又は、時計型の情報処理装置等でもよい。ほかにも、HMD16は、一部の情報を他の情報処理装置で出力する、又は、音声で出力する等のように、複数の装置を連携させて動作してもよい。HMD16等のウェアラブル機器を用いると、ユーザ10は、いわゆるハンズフリーとなり、作業等が容易にできる。
 HMD16は、例えば、ユーザ10に対し、以下のような画面で情報を出力する。
 図4は、出力例を示す図である。例えば、HMD16は、透過画面161のような形式で表示する。
 図に示す内容のうち、透過領域162は、ガラス等の透過性の高い素材を通して、ユーザ10が見える森林内の風景である。そして、HMD16は、透過領域162に対し、ルート情報163、及び、樹木データ164等を重ねて表示する。なお、HMD16は、複数の樹木データ164を出力する場合には、互いの表示位置をずらす、大きさを変更する、又は、一部を省略する等で情報を見やすくする処理を行ってもよい。
 HMD16は、拡張現実(Augmented Reality、AR)等を用いてもよい。すなわち、HMD16は、ユーザ10が透過領域162で見る現実世界に対し、デジタルによる情報を重ねて表示する、視覚的に現実を拡張した表示を行う。このように、HMD16は、実際の風景等を背景にし、かつ、仮想情報を重ねたAR表示等で出力を行う。また、HMD16は、バーチャルキーボード、又は、ユーザ10の手の動き、若しくは、ジェスチャーを認識して入力を受け付けてもよい。
 ルート情報163は、目的地への方向、又は、目的地へのルートを示す。例えば、ルート情報163は、図示するように矢印等で表示される。なお、ルート情報163は、矢印以外の形式で表示されてもよい。例えば、ルート情報163は、目的地への方角、又は、距離等を表示する形式でもよい。
 樹木データ164は、例えば、透過領域162内に存在する樹木に関する情報である。具体的には、樹木データ164は、樹木の識別番号(図における「ID」である。)、樹木の胸高直径(図における「DBH」である。)、及び、樹高(図における「H」である。)等である。なお、樹木データ164は、これら以外の種類であってもよい。例えば、樹木データ164には、位置、胸高直径、曲がり、傾き、樹高、又は、材積等があってもよい。
 樹木データ164は、樹木データベースD1から取得する。なお、樹木データベースD1には、各種の情報が事前に入力される。
 また、樹木データ164は、施業情報165、及び、防災情報166等を含む。なお、施業情報165、及び、防災情報166は、樹木データベースD1等に事前に入力される。
 例えば、樹木データ164は、ユーザに最も近い距離にある樹木を対象に出力される。なお、出力は、対象とする樹木を指定、又は、複数の樹木を対象にしてもよい。
 <全体処理例>
 図5は、全体処理例を示す図である。以下、全体処理は、まず、「事前処理」を行い、「事前処理」による準備が完了した後、「実行処理」を行う順序で実行される。なお、「事前処理」及び「実行処理」は連続しなくともよい。また、「事前処理」は、「実行処理」ごとに行わず、以前に少なくとも1回実行されていればよい。
 <事前処理の例>
 ステップS1-1では、情報処理システム100は、樹木の配置を示すデータ(以下「マップデータ」という。)を生成する。例えば、マップデータは、森林内をレーザ測距装置等で計測した結果等である。なお、マップデータを構成する樹木の位置は、計測者がマップ上で樹木の位置を入力する等の形式で入力されてもよい。
 マップデータは、例えば、生成後、マップデータベースD2等の形式で第2情報処理装置12に記憶される。したがって、マップデータは、マップデータベースD2にアクセスすると取得できる。
 図6は、マップデータの例を示す。例えば、マップデータは、マップデータベースD2に記憶する情報に基づき、地図を出力するのに用いられる。
 マップデータは、計測結果に基づき、樹木の位置等を示す。以下、マップデータ上の樹木を「第1樹木TR1」という。したがって、マップデータは、第1樹木TR1同士の位置関係等を正確に示す。
 ステップS1-2では、情報処理システム100は、樹木データを生成する。
 樹木データは、第1樹木TR1ごとの各々の特徴を示すデータである。
 樹木データは、例えば、生成後、樹木データベースD1等の形式で第2情報処理装置12に記憶される。したがって、樹木データは、樹木データベースD1にアクセスすると取得できる。
 図7は、樹木データの例を示す。例えば、樹木データは、「ID」に対し、「DBH」及び「樹高」等といった各々の樹木の特徴を対応させた形式で生成される。
 「ID」は、各々の樹木を識別する情報の例である。したがって、「ID」が特定されると、情報処理システム100は、マップデータにおけるどの第1樹木TR1であるかが特定できる。
 「DBH」及び「樹高」は、第1樹木TR1の各々を計測した結果である。なお、樹木の特徴は、「DBH」及び「樹高」のように第1樹木TR1ごとに異なる情報であって、定量的、かつ、樹木の形状を示す情報であるのが望ましい。
 森林内では、情報処理システム100は、樹木の形状以外の情報を収集するのが難しい場合がある。さらに、樹木は、森林では同じ種類の樹木が密集している場合も多い。したがって、一般的なパターンマッチングでは、複数の樹木がマッチングしてしまう場合がある。
 そこで、樹木データは、「DBH」及び「樹高」等のように、同じ種類の樹木が集まっていても、各々の樹木を区別できる情報を含むのが望ましい。
 なお、樹木データは、「DBH」及び「樹高」以外の情報でもよい。例えば、色等が他の樹木と大きく異なるような樹木である場合等では、色を樹木データに記憶してもよい。
 ほかにも、情報処理システム100は、地面についてのデータを記憶してもよい。このようなデータがあると、情報処理システム100は、樹木の倒壊、又は、崩落等を予見できる。
 <実行処理の例>
 実行処理は、事前処理が実行された後、情報処理システム100は、マップデータ、及び、樹木データを取得できる状態で実行される。なお、情報処理システム100は、マップデータ、及び、樹木データをリアルタイムに取得、及び、更新する必要はなく、通信が良好な状態等でデータを取得し、記憶しておく等でもよい。以下、実行処理は、ステップS2の位置推定処理を行う処理である例で説明する。
 ステップS2-1では、情報処理システム100は、ユーザ10の周辺を撮影する。そして、情報処理システム100は、周辺の樹木を示す画像データを生成する。したがって、画像データに写る樹木は、カメラ15の画角等によって定まる範囲に存在する樹木である。この画像データは、情報処理システム100内に記録される。
 ステップS2-2では、情報処理システム100は、レーザにより計測を行う。この時の点群データは、情報処理システム100内に記録される。
 ステップS2-3では、情報処理システム100は、ステップS2-1で生成される画像データを解析し、解析結果を示すデータを生成する。例えば、情報処理システム100は、画像認識等により、画像データ内に写る樹木を認識する。
 なお、情報処理システム100は、ステレオカメラ等を用いて、画像データ内に写る樹木の寸法、及び、現在位置からの樹木までの距離等を解析してもよい。
 ステップS2-2、又は、ステップS2-3により、現在位置の周辺に存在する樹木が認識される。以下、画像データの解析結果、又は、計測結果に基づいて注目する樹木を「第2樹木」という。
 なお、ユーザ10の周辺には、複数の樹木が密集する場合もある。このような場合には、複数の樹木が認識される場合もある。このような場合には、第2樹木は、複数の樹木のうち、任意に選択される。例えば、情報処理システム100は、複数の樹木が認識できた場合には、ユーザ10の位置に最も近いと推定する樹木等を第2樹木とする。
 ステップS2-4では、情報処理システム100は、第1樹木TR1と第2樹木とを対応させる。すなわち、情報処理システム100は、第2樹木がどの第1樹木TR1であるか特定する。
 対応付けには、情報処理システム100は、第2樹木の解析結果、すなわち、第2樹木の特徴を特定して行う。そして、情報処理システム100は、樹木データによる単木の特徴、マップデータによる配置の特徴に基づき、特徴が一致する第1樹木TR1を探索する。
 具体的には、画像データを解析した解析結果、及び、レーザの計測結果を参照すると、情報処理システム100は、第2樹木の樹高、DBH、又は、他の樹木との位置関係を取得できる。これらのデータに基づき、情報処理システム100は、樹木データを探索して樹高、DBHの一致するもの、又は、マップデータから他の樹木との位置関係の一致するものを第1樹木TR1として採用する。
 ただし、情報処理システム100は、数値を比較する上で一定の許容値を考慮してもよい。すなわち、情報処理システム100は、第2樹木の計測結果等に基づく数値と、樹木データ上の数値、位置とが完全に一致した場合だけを一致としなくともよい。例えば、事前に設定する許容値以内の差であれば、情報処理システム100は、一致すると判断してもよい。又は、完全に数値等の特徴が一致しない場合には、情報処理システム100は、最も類似する第1樹木TR1を対応させてもよい。
 このように、解析結果、及び、計測結果と、樹木データとを用いると、情報処理システム100は、樹木の特徴に基づいて、第1樹木TR1と、第2樹木とを対応させるマッチングができる。ゆえに、精度良く情報処理システム100は、精度良く第1樹木TR1と、第2樹木とを対応させることができる。
 なお、情報処理システム100は、複数の項目についてマッチングしてもよい。すなわち、情報処理システム100は、複数の特徴が一致する第1樹木TR1を第2樹木と対応させる。このように複数の項目を用いると、より高精度に対応付けができる。
 以下、特徴が一致した樹木、すなわち、第2樹木のうち、高い可能性で第1樹木TR1と認識できた樹木を「第3樹木」という。
 ステップS2-5では、情報処理システム100は、第3樹木が複数存在するか否かを判断する。そして、第3樹木が複数存在すると(ステップS2-5でYES)、情報処理システム100は、ステップS2-6に進む。一方で、第3樹木が複数存在しないと(ステップS2-5でNO)、情報処理システム100は、ステップS2-1に進む。
 ステップS2-6では、情報処理システム100は、現在位置を特定する。例えば、情報処理システム100は、以下のように現在位置を特定する。
 図8は、現在位置を特定する処理の例を示す図である。以下、ユーザ10が第1地点CP1、第2地点CP2、第3地点CP3・・・と移動していく例で説明する。
 例えば、第1地点CP1では、第3樹木は、第31樹木TR31、第32樹木TR32、第33樹木TR33、第34樹木TR34、及び、第35樹木TR35が特定される。
 次に、第31樹木TR31、及び、第32樹木TR32の位置は、対応付けされた樹木データに基づき、位置が把握される。
 そして、第31樹木TR31、及び、第32樹木TR32を撮影した方向が特定できると、情報処理システム100は、図における点線の交点を現在位置と特定できる。また、現在位置が特定できると、画像データ内、又は、HMD16を通して見える樹木が現在位置を基準にして、どの位置、及び、どの方向にある樹木であるかが特定できる。そのため、情報処理システム100は、画像データ内、又は、HMD16を通して見える樹木がマップデータ等におけるどの樹木かを特定できる。
 なお、開始時の現在位置は位置精度が高いほうがよく、いくつかの第3樹木の組み合わせで特定した位置情報から、装置を中心とした樹木間の角度とマップデータの樹木間の角度を比較し、その偏差が最小になるように特定してもよい。
 ほかにも、樹木は、他の樹木との位置関係により、撮影ができる地点が限られる。したがって、情報処理システム100は、各々の樹木が撮影可能な範囲を特定し、すべての第3樹木が撮影可能な地点を現在位置と特定してもよい。
 例えば、一定時間が経過すると、情報処理システム100は、現在位置を更に特定する。以下、第1地点CP1から一定時間が経過し、ユーザ10が第1地点CP1から第2地点CP2に移動したとする。
 第2地点CP2では、第3樹木は、第31樹木TR31、第32樹木TR32、第34樹木TR34、第35樹木TR35、第36樹木TR36、及び、第37樹木TR37が特定される。例えば、第32樹木TR32、及び、第34樹木TR34を撮影した方向が特定できると、情報処理システム100は、図における点線の交点を第2地点CP2として現在位置を特定できる。
 同様に、第3地点CP3では、以下のように現在位置が特定される。
 第3地点CP3では、第3樹木は、第32樹木TR32、第36樹木TR36、第37樹木TR37、第38樹木TR38、及び、第39樹木TR39が特定される。例えば、第36樹木TR36、及び、第39樹木TR39を撮影した方向が特定できると、情報処理システム100は、図における点線の交点を第3地点CP3として現在位置を特定できる。
 なお、現在位置の特定方法は、3本以上の樹木を用いてもよい。また、現在位置の特定方法は、Visual SLAM等を用いてもよい。
 したがって、情報処理システム100は、レーザ、及び、カメラともユーザ10の水平方向360°を撮影するのが望ましい。このように、全周が撮影されると、情報処理システム100は、より精度良く現在位置が特定できる。
 位置の特定に取得したデータは、樹木位置、樹高、DBHを取得するのに十分なデータである。そして、図5におけるステップS3では事後処理として、情報処理システム100は、取得したデータを解析し、樹木データベースD1、又はマップデータベースD2等を更新する(ステップS3-1)。
 <ルート探索の例>
 ルート探索は、例えば、車両用のナビゲーション等に用いられるアルゴリズム等で実現する。ただし、ルートの探索、及び、表示は、樹木を中心に処理されるのが望ましい。特に、樹木は、第3樹木を基準、すなわち、対応付けにより識別ができた樹木を中心にするのが望ましい。
 このように、目的地の方向、又は、目的地へのルートを出力できると、情報処理システム100は、ユーザ10を目的地へ誘導できる。
 また、情報処理システム100は、ルートの情報等を用いて、目的地までの距離、又は、時間等を計算してもよい。このような計算がされると、情報処理システム100は、林業における運搬等のコスト、時間、又は、運搬距離等を計算できる。
 <GNSSとの切り替えを行う例>
 情報処理システム100は、ステップS2-6で現在位置を特定するのに、GNSSを用いるか、又は、図8に示すような特定方法を用いるかを切り替えてよい。例えば、情報処理システム100は、図3に示す情報に基づいて切り替える。
 例えば、情報処理システム100は、第1地域E1、又は、第3地域E3では、図8に示すような特定方法で現在位置を特定する。一方で、情報処理システム100は、第2地域E2では、GNSSで現在位置を特定する。
 なお、切り替えの判断に用いる位置は、推定されてもよい。例えば、第1地域E1では、GNSSでは現在位置が特定できない場合がある。ゆえに、切り替えを判断するのに基準とする位置が特定できない場合がある。このような場合には、情報処理システム100は、どの地域にいるかを推定してもよい。
 例えば、第2地域E2にユーザ10が位置し、かつ、第1地域E1に向かって移動している場合、情報処理システム100は、直近に計測できた速度、及び、移動方向が維持されると仮定して、ユーザ10が第1地域E1に移動したと推定してもよい。
 以上のように、GNSS、及び、樹木による位置の特定を切り替えると、情報処理システム100は、通信が難しいような環境であっても現在位置を精度良く特定できる。
 <データの記憶、更新、及び、解析の例>
 第2情報処理装置12は、画像データ、ルートの探索結果、ユーザ10の移動履歴、レーザによる計測結果、マップデータ、及び、樹木データ等を第1情報処理装置11等から受信し、記憶してもよい。なお、データは、複数の装置で分散、又は、冗長して記憶されてもよい。さらに、データは、更新されてもよい。
 ほかにも、データは、ドローン、又は、航空機等の計測結果があってもよい。
 また、データは、分析されてもよい。例えば、ルートは、ユーザ10の移動履歴、すなわち、実際にユーザ10が移動した結果等を参考にし、最適化されてもよい。
 さらに、データは、解析、又は、共有化等のため、所定のフォーマットで記憶されるのが望ましい。
 <機能構成例>
 図9は、情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、計測部100F1、第1取得部100F2、第2取得部100F3、撮影部100F4、対応部100F5、及び、第1特定部100F6等を備える。なお、情報処理システム100は、第2特定部100F7、判断部100F8、出力部100F9、記憶部100F10、及び、更新部100F11を更に備えるのが望ましい。以下、図示する機能構成を例に説明する。
 計測部100F1は、現在位置からレーザ光を周囲に発し、現在位置に対する各樹木までの距離、方向を計測する計測手順を行う。例えば、計測部100F1は、レーザ測距装置14等で実現する。
 第1取得部100F2は、第2情報処理装置12等から、マップデータを取得する第1取得手順を行う。例えば、第1取得部100F2は、インタフェース11H3等で実現する。
 第2取得部100F3は、第2情報処理装置12等から、樹木データを取得する第2取得手順を行う。例えば、第2取得部100F3は、インタフェース11H3等で実現する。
 撮影部100F4は、ユーザ10の周辺を撮影して画像データを生成する撮影手順を行う。例えば、撮影部100F4は、カメラ15等で実現する。
 対応部100F5は、画像データを解析した解析結果、及び、計測部100F1による計測結果に基づき、第1樹木と、第2樹木とを対応させる対応手順を行う。例えば、対応部100F5は、CPU11H1等で実現する。
 第1特定部100F6は、第3樹木が複数存在すると、複数の第3樹木の位置に基づき、現在位置を特定する第1特定手順を行う。例えば、第1特定部100F6は、CPU11H1等で実現する。
 第2特定部100F7は、衛星と通信をして現在位置を特定する第2特定手順を行う。例えば、第2特定部100F7は、インタフェース11H3等で実現する。
 判断部100F8は、第1特定部100F6、及び、第2特定部100F7のうち、どちらで現在位置を特定するかを判断する判断手順を行う。例えば、CPU11H1等で実現する。
 出力部100F9は、第3樹木に対し、樹木データを出力する出力手順を行う。例えば、出力部100F9は、HMD16等で実現する。
 記憶部100F10は、計測結果を示す取得データD3等のデータを記憶する記憶手順を行う。そして、記憶部100F10が記憶するデータは、解析が行われてもよい。また、解析結果、又は、記憶するデータに基づき、マップデータ、及び、樹木データ等が更新される。また、記憶部100F10は、計測、撮影データを記憶する。例えば、記憶部100F10は、記憶装置11H2等で実現する。
 更新部100F11は、記憶部100F10が記憶するデータを解析し、樹木データ、又は、マップデータ等を更新する更新手順を行う。例えば、更新部100F11は、CPU11H1等で実現する。
 以上のような機能構成であると、情報処理システム100は、森林内のように、GNSSでは精度が悪くなる環境であっても、精度良く現在位置を特定できる。
 ルート等の情報は、現在位置を中心に計算される場合が多い。したがって、ルート探索等の基礎情報である現在位置の精度が悪いと、現在位置を基準に計算される位置は、精度が悪くなりやすい。
 一方で、上記のような機能構成であると、情報処理システム100は、10センチメートル以下の誤差となる高精度に位置を特定できる。また、このように、現在位置が精度良く特定できると、周辺の物体も精度良く位置が把握できる。そのため、AR表示において、対象とする物体に精度良く重ねて表示ができる。
 森林において、樹木、及び、樹木の周辺は、樹木の成長、又は、周辺環境により、日々変化する。ゆえに、マップデータ、及び、樹木データ等は、変化を反映させて、日々更新して最新の状態を示すのが望ましい。そのため、情報処理システム100は、変化する森林環境情報等に基づき、各種のデータを簡便に更新する。
 [その他の実施形態]
 実施形態は、上記、及び、下記の実施形態、及び、変形例を組み合わせたものでもよい。
 人工知能(Artificial Intelligence、以下「AI」という。)等が用いられてもよい。例えば、画像を用いる場合には、以下のようなConvolution Neural Network(畳み込みニューラルネットワーク、CNN)等を有するネットワーク構造のAI等が用いられてもよい。
 図10は、ネットワーク構造の例を示す図である。
 実施形態では、ドロップアウト等といった過学習(「過剰適合」又は「過適合」等ともいう。overfitting)を軽減化させる処理が行われてもよい。ほかにも、次元削減等の処理が行われてもよい。
 学習モデルの学習、及び、学習済みモデルによる実行は、同一の情報処理装置で行われなくともよい。すなわち、学習モデルの学習、及び、学習済みモデルによる実行は、異なる情報処理装置で行われてもよい。
 ゆえに、学習済みモデルは、ディープラーニング(Deep Learning)等の学習によって生成された後、ネットワーク等を介して配信され、学習された情報処理装置とは異なる装置で実行されてもよい。なお、他の情報処理装置において学習して生成された学習モデルに対し、追加して学習が行われてもよい。
 学習モデル、及び、学習済みモデルは、CNNのネットワーク構造に限られない。例えば、ネットワーク構造は、RNN(再帰型ニューラルネットワーク、Recurrent Neural Network)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。
 また、学習モデル、及び、学習済みモデルは、ハイパパラメータを有する構成であってもよい。すなわち、学習モデル、及び、学習済みモデルは、一部の設定をユーザが行う構成でもよい。
 ほかにも、例えば、グラフ(頂点、及び、辺で構成されるデータである。)を扱う場合には、学習モデル、及び、学習済みモデルは、GNN(グラフニューラルネットワーク、Graph Neural Network)等の構造を有してもよい。
 また、学習モデル、及び、学習済みモデルは、他の機械学習を利用してもよい。例えば、学習モデル、及び、学習済みモデルは、教師なしのモデルにより、正規化等を前処理で行ってもよい。
 本発明は、上記に例示する情報処理方法、又は、上記に示す処理と等価な処理を実行するプログラム(ファームウェア、及び、プログラムに準ずるものを含む。以下単に「プログラム」という。)で実現されてもよい。
 すなわち、本発明は、コンピュータに対して指令を行って所定の結果が得られるように、プログラミング言語等で記載されたプログラム等で実現されてもよい。なお、プログラムは、処理の一部をIC(集積回路、Integrated Circuit)等のハードウェア又はGPU(Graphics Processing Unit)等の演算装置等で実行する構成であってもよい。
 [第2実施形態]
 第2実施形態では、情報処理システム100は、第1実施形態と比較すると、以下のようなルートを生成する点が異なる。以下、異なる点を中心にして重複する説明は省略する。
 ルートは、目的ごとに複数種類が生成される。具体的には、ルートは、「歩道」、「森林作業道」、及び、「林道」の3種類が別に生成される。
 例えば、森林作業道は、「森林作業道作設指針(平成22年11月17日付け22林整整第656号林野庁長官通知)」、及び、改正案等で定義される(https://www.rinya.maff.go.jp/j/seibi/sagyoudo/attach/pdf/romousuisin-15.pdf)。このように、森林作業道は、木材の集材、又は、搬出に用いるルートである。そして、情報処理システム100は、このような指針で規定する要件を満たすルートを生成する。具体的には、情報処理システム100は、集材、又は、搬出に用いる機械の種類を入力して、指針が規定する幅員、及び、傾斜等を満たすルートを生成する。
 歩道は、人が歩ける幅員、及び、傾斜等を満たすルートである。
 林道は、車両が走行可能なルートである。例えば、林道は、「林道規定(昭和48年4月1日付け林野道第107号林野庁長官通知)」、及び、細部運用等で定義される(https://www.rinya.maff.go.jp/j/seibi/sagyoudo/pdf/kitei.pdf)。このように、林道は、指針等が規定する幅員、及び、傾斜等を満たすルートである。具体的には、林道のうち、「軽車道」は、は、全幅員1.8メートル以上、かつ、3.0メートル未満の軽自動車の通行できるルートである。このように、情報処理システム100は、幅員、及び、傾斜等の条件を満たす場合には、ルートの一部に採用する。一方で、情報処理システム100は、幅員、及び、傾斜等の条件を満たさない場合には、条件を満たさない箇所を通らないルートを探索する。
 このような指針等のルート条件が事前に定まる。なお、ルート条件は、指針等に限られず、独自の設定値等があってもよい。
 また、ルートは、事前にマップ等で把握できる既存ルートを結んで生成されてもよい。一方で、ルートは、マップ等では既存ルートとなっていない箇所を選んで生成されてもよい。したがって、ルートは、目的ごとに異なる条件下で生成する。例えば、工事等により新たなルートを開拓するのが可能な条件下でルートを生成する場合には、マップ等では既存ルートとなっていない箇所を含んでルートが生成されてもよい。
 一方で、森林内を歩く等のために、ルートを生成する場合には、マップ等で事前にルートと設定された箇所、すなわち、既存ルートを探索してルートが生成される。以下、既存ルートを検索して、既存ルートを組み合わせてルートを生成する場合をルートの「探索」という。ルートの種類が異なると、情報処理システム100は、異なるルートを探索される場合がある。
 なお、ルートは、既存ルートの探索、及び、新たなルートの開拓を組み合わせて、生成されてもよい。
 図11は、第2実施形態におけるルート生成処理の例を示す図である。情報処理システム100は、以下のような処理でルートを生成する。
 全体処理は、例えば、「事前処理」と「現場処理」に分かれる。なお、事前処理は、現場処理より前に実行されていればよい。以下、事前処理と現場処理が連続して実行される例で説明するが、全体処理は、これに限られない。例えば、事前処理は、以前に実行されていれば、毎回実行せずに省略して、全体処理は現場処理から開始されてもよい。
 以下、事前処理で生成するルートを「第1ルート」という。例えば、第1ルートは、事前に会議室等で生成される。一方で、現場処理で生成するルートを「第2ルート」という。例えば、第2ルートは、森林内で生成される。
 ステップS1101では、情報処理システム100は、3D(3次元)データを入力する。例えば、3Dデータは、対象とする森林の地面等を計測した結果を示すデータである。そのため、3Dデータがあると、情報処理システム100は、所定の条件を満たすルートを探索できる。例えば、3Dデータは、レーザ計測機等で計測を行った結果を示す。
 ステップS1102では、情報処理システム100は、ルート条件を入力する。
 ルート条件は、指針等である。また、ルート条件は、ルートを生成する上で用いるパラメータ等を含んでもよい。
 ステップS1103では、情報処理システム100は、始点、及び、終点を設定する。したがって、情報処理システム100は、第1ルート、及び、第2ルートを始点と終点を結ぶように生成する。なお、始点、及び、終点とは別に、始点から終点へ行く途中に経由させる点である経由点等が設定されてもよい。
 ステップS1104では、情報処理システム100は、第1ルートを生成する。例えば、第1ルートは、以下のように生成される。
 図12は、第1ルートの例を示す図である。以下、始点ST1から終点ST2までの第1ルートを生成する例で説明する。例えば、図示するような等高線L1で示す森林では、第1ルートは、以下のように生成される。
 ルートは、等高線L1に対して直角に近い角度になるほど、傾斜が大きいルートになりやすい。具体的には、第10ルートR10は、等高線L1に対して直角に近い角度が多いルートである。したがって、第10ルートR10は、傾斜が大きく、ルート条件を満たさない場合がある。
 そこで、情報処理システム100は、第11ルートR11等を生成する。第10ルートR10と比較すると、第11ルートR11は、等高線L1に対する角度が小さい点が多い。
 例えば、第1ルートは、第11ルートR11のように傾斜が小さくなるように生成される。また、複数のルートが生成できる場合には、情報処理システム100は、複数のルートのうち、例えば、始点ST1から終点ST2までへの移動距離が最も短いルート等を選ぶ。なお、第1ルートの生成方法は、上記以外の方法でもよい。
 以上のように、事前処理を実行すると、情報処理システム100は、第1ルートが生成できる。次に、事前処理が実行された後、すなわち、第1ルートが生成された後の状態で、情報処理システム100は、以下のように、現場処理を実行する。
 ステップS1105では、情報処理システム100は、回避物を入力する。
 回避物は、例えば、岩、又は、水等である。すなわち、回避物は、ルートとする上で避ける対象である。また、回避物は、マップ上で指定、又は、座標値等の形式で位置が入力される。
 ステップS1106では、情報処理システム100は、第2ルートを生成する。第2ルートは、回避物を避けるルートである。したがって、第2ルートは、回避物の位置、及び、回避物から所定距離内を通過しないルートである。
 第1ルート、第2ルート、又は、ルートの一部は、例えば、以下のように、パラメータを用いるダイクストラ法(Dijkstra’s algorithm)等で生成される。
 図13は、ルートの生成例を示す図である。以下、始点ST1から終点ST2までのルートR0を生成する例で説明する。例えば、始点ST1、及び、終点ST2の周辺箇所は、図示するように、メッシュで区分けされる。具体的には、メッシュは、一辺が50cmの矩形を構成する辺と、矩形の対角線等である。なお、メッシュの間隔等は、例えば、ユーザが設定する。
 また、3Dデータ、又は、マップデータ等に基づいて、第1樹木TR1等が設定される。第1樹木TR1がある箇所は、通過ができない経路(図では、「×」印で示す。)である。したがって、第1樹木TR1がある箇所は、ルートから排除される。なお、第1樹木TR1以外に、手動等で通過できない経路が設定されてもよい。
 図において、「p」は、ルートを生成する上で傾斜の条件を設定するパラメータ(以下、「傾斜パラメータp」という。)である。例えば、傾斜パラメータpは、ルート条件で入力される。また、「θ」は傾斜角を示す。傾斜角θは、傾斜を示す角度であるため、負の値とならない。
 図示する例では、「tanθ」の絶対値(図では「|tanθ|」と示す。)が「0.5」より大きい、すなわち、傾斜角θが「45°」より大きい角度となると、傾斜パラメータpは、傾斜パラメータpを「0.1」で除算した値となり、大きな値となる。また、傾斜パラメータpは、図示する例のように、|tanθ|が「0.3」より大きく、かつ、|tanθ|が「0.5」以下の場合のように、複数の条件分けがされてもよい。
 つまり、この例は、|tanθ|が「0.3」以下、|tanθ|が「0.3」より大きく、かつ、|tanθ|が「0.5」以下、及び、|tanθ|が「0.5」の3段階を設定する場合である。
 以下、傾斜角θが大きくなると、傾斜パラメータpが大きな値となる例で説明する。
 なお、傾斜パラメータpは、上記以外の設定がされてもよい。したがって、傾斜パラメータpは、2段階以下、又は、4段階以上に設定されてもよい。また、傾斜角θが「45°」等の設定は、ユーザが任意の値に設定できてもよい。
 さらに、パラメータは、傾斜以外を考慮して設定されてもよい。例えば、パラメータは、危険度、又は、水量等に応じて増加する設定等でもよい。また、パラメータは、複数あってもよい。
 情報処理システム100は、経路長Lに傾斜パラメータpを乗じた「L×p」(以下、「L×p」の計算結果を「パス長」という。)を計算する。
 パス長は、経路長Lと傾斜パラメータpを乗算した結果であるため、どちらかの値が大きいと、パス長は大きい値になりやすい。したがって、情報処理システム100は、パス長が小さくなる経路を探すと、傾斜が小さいルートを生成できる。また、このような計算アルゴリズムを用いると高速で計算できる。
 第1ルートは、例えば、平均の傾斜が15°程度になるように、事前に生成されるため、現場の状況等が考慮できない場合がある。具体的には、回避物があるか否かは、現場に行く前では把握できない場合が多い。一方で、現場では、回避物が見つかる。そこで、情報処理システム100は、第1ルートを変更して、現場で第2ルートを生成する。このように、現場の状況を踏まえた第2ルートが生成できるのが望ましい。また、マップ等にない情報を反映させた第2ルートが生成できる。
 第2ルートは、急な作業道が少なく、かつ、ユンボ等の機械で切り出す土砂物の体積が少ないルートにできる。
 また、ルートは、複数の土地所有者に跨って生成される場合がある。このようなルートが生成された場合には、工事等でルートを使用する前に、事前に土地所有者に使用の許可を得ることができる。
 <機能構成例>
 図14は、第2実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、第1ルート生成部100F21、及び、第2ルート生成部100F22を更に備える点が異なる。以下、異なる点を中心に説明する。
 第1ルート生成部100F21は、ユーザ、又は、機械が利用する第1ルートを生成する第1ルート生成手順を行う。例えば、第1ルート生成部100F21は、CPU11H1等で実現する。
 第2ルート生成部100F22は、第1ルートに対して回避物が入力されると、回避物を回避した第2ルートを生成する第2ルート生成手順を行う。例えば、第2ルート生成部100F22は、CPU11H1等で実現する。
 以上のように、第1ルートを生成できると、基本となるルートが事前に生成できる。一方で、現場では、マップ等では把握できない回避物が存在する場合がある。ルートは、回避物を通らず(一定距離以上の距離を避けたルートが望ましい場合もある。)、回避物を避けて目的地へ進むルートが望ましい。回避物は、例えば、現場でユーザ10が視認して把握する。このような回避物を避けたルートである第2ルートが現場で生成できると、第1ルートを変更した第2ルートを現場で更に確認できる。ゆえに、情報処理システム100は、効率良くルートを生成できる。
 [第3実施形態]
 第3実施形態は、第1実施形態と比較すると、ユーザが複数である状況等で使用される実施形態である点が異なる。なお、HMD16は、少なくとも1人のユーザが装着していればよい。すなわち、HMD16は、複数台であって、各ユーザが装着してもよい。
 図15は、第3実施形態における情報処理システムの全体構成を示す図である。以下、図示するように、第1ユーザM1と、第2ユーザM2が連携して森林内で樹木を切り倒す作業を行う例で説明する。この例では、第1ユーザM1がHMD16を装着し、かつ、第1ユーザM1は第2ユーザM2等の他のユーザを管理する。一方で、第2ユーザM2は、作業を行う。なお、ユーザは、3人以上でもよい。
 図16は、第3実施形態における情報処理システムによる予測の例を示す図である。以下、HMD16が、図に示す画面(画面内において、第40樹木TR40等は、透過した風景である。)を第1ユーザM1に出力する例で説明する。この例では、HMD16は、第40樹木TR40等といった透過して見える風景に、第1パネルPL1等の仮想データを重ねて出力する。
 そして、第40樹木TR40は、第1ユーザM1がチェーンソーで切り倒す対象であるとする。
 HMD16は、第40樹木TR40が倒れる可能性がある範囲(以下「危険範囲A1」という。)を予測する。例えば、危険範囲A1は、第40樹木TR40を中心にした全周方向を示す円で出力する。
 ただし、予測結果は、他の形式で出力されてもよい。例えば、予測結果は、倒木予想A2のような形式でもよい。ほかにも、HMD16は、危険範囲A1の範囲内にある樹木を色分けする等で予測してもよい。具体的には、HMD16は、第40樹木TR40を赤色で示し、かつ、危険範囲A1の範囲内にある第41樹木TR41を黄色で示す等でもよい。
 情報処理システム100は、例えば、第40樹木TR40の樹高(樹高は、第1パネルPL1における「H」の値である。)等に基づいて、危険範囲A1、又は、倒木予想A2を予測する。すなわち、危険範囲A1は、第40樹木TR40の位置を中心にした樹高の全周方向である。
 なお、危険範囲A1は、安全等のため、余裕があってもよい。例えば、余裕は、樹高に対して更に所定距離多めに中心から遠ざかる、又は、樹高の数倍程度多めに中心から遠ざかる等のように、事前に設定される。
 情報処理システム100は、第40樹木TR40が倒れるタイミングになると警告を行う。以下、第1ユーザM1が第40樹木TR40の作業担当者であり、かつ、第2ユーザM2が第41樹木TR41の作業担当者である例で説明する。なお、どのユーザがどの樹木を担当するかは入力されてもよい。また、第2ユーザM2が危険範囲A1の範囲内にいるとする。このような場合には、情報処理システム100は、第1ユーザM1に対して、第2ユーザM2が危険範囲A1の範囲内にいる警告を行う。
 警告は、光、音、表示、振動、通信、又は、これらの組み合わせ等で行う。例えば、情報処理システム100は、警告となる光を発する、警告となる音を発する、振動する、第2ユーザM2が危険範囲A1の範囲内であるメッセージを出力する、又は、これらの組み合わせである。
 なお、警告は、第2ユーザM2に対して行われてもよい。したがって、情報処理システム100は、第2ユーザM2に向かって、光、音、表示、振動、通信、又は、これらの組み合わせによる警告を発してもよい。また、情報処理システム100は、第1ユーザM1が危険範囲A1の範囲内にいる場合には、第1ユーザM1が危険である警告を行ってもよい。
 なお、情報処理システム100は、第2ユーザM2が情報処理装置を有する場合には、第2ユーザM2が有する情報処理装置に対し通信で警告を行ってもよい。例えば、情報処理システム100は、HMD16が近距離通信等を行って、第2ユーザM2が有する情報処理装置が音を発する、光を発する、振動する、第2ユーザM2が有する情報処理装置にメッセージを送る、又は、これらの組み合わせ等の警告を行う。
 情報処理システム100は、カメラが撮影する画像に基づく画像認識、第2ユーザM2が担当する樹木の事前設定、又は、他のセンサによる第2ユーザM2の認識により、第2ユーザM2の位置を把握する。なお、情報処理システム100は、温度、動作、又は、色等でユーザ、及び、ユーザの位置を把握してもよい。
 なお、警告は、音以外が望ましい。例えば、チェーンソーで作業をしている場合には、チェーンソーによる音が大きいため、作業しているユーザは、周囲からの音が聞き取りにくい場合がある。したがって、警告は、例えば、レーザポインタが発する光等であると、第2ユーザM2が警告を認識しやすい。また、作業をしている間は、手が塞がっている場合が多いため、装置を操作しなくとも警告を受け取れる光等が望ましい。
 <機能構成例>
 図17は、第3実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、予測部100F31、及び、警告部100F32を更に備える点が異なる。以下、異なる点を中心に説明する。
 予測部100F31は、樹木が倒れる可能性がある範囲を予測する予測手順を行う。例えば、予測部100F31は、CPU11H1等で実現する。
 警告部100F32は、範囲に第1ユーザM1、又は、第2ユーザM2がいると、光、音、表示、振動、通信、又は、これらの組み合わせで警告を行う警告手順を行う。例えば、警告部100F32は、出力装置11H5等で実現する。
 以上のように、複数のユーザが連携して作業を行う上で、危険が発生した等の場合に、ユーザに対して警告を発することができると、ユーザは、安全に作業ができる。また、ユーザ間のコミュニケーションを活発にできると、作業の効率を良くできる。
 [第4実施形態]
 第4実施形態は、第1実施形態と比較すると、HMD16による出力が異なる。
 図18は、第4実施形態における出力例を示す図である。以下、図18(A)に示すように、ユーザ10の近距離となる範囲(以下「近距離範囲A3」という。)、及び、ユーザ10から遠い位置に、樹木がある例で説明する。以下、第4樹木が「第42樹木TR42」、「第43樹木TR43」、及び、「第44樹木TR44」である例で説明する。
 第4樹木は、近距離範囲A3の範囲内にある樹木である。すなわち、第42樹木TR42、第43樹木TR43、及び、第44樹木TR44は、ユーザ10に対して近距離にある樹木である。例えば、近距離範囲A3は、「5m以内の範囲」等のように、出力設定が事前に設定される。なお、出力設定は、距離以外でもよい。例えば、出力設定は、非表示にする樹木の種類、又は、間伐済みであると非表示とする等を設定してもよい。また、出力設定は、スライダ(Slider)、又は、数値入力等のUI(User Interface)で実現する。
 図18(B)は、HMD16がユーザ10に出力する画面の例を示す図である。図示するように、HMD16は、第42樹木TR42、第43樹木TR43、及び、第44樹木TR44に対しては、樹木の識別番号(図における「ID」である。)、樹木の胸高直径(図における「DBH」である。)、及び、樹高(図における「H」である。)等の樹木データを出力する。
 一方で、HMD16は、図18(B)に示すように、近距離範囲A3より外、すなわち、ユーザ10から遠距離に位置する樹木である第45樹木TR45については、樹木データを非表示とする。
 このように、情報処理システム100は、出力する上で近距離の樹木を抽出して、AR表示を行う。第45樹木TR45のように、ユーザ10から離れた位置にある樹木までAR表示を行うと、森林内では樹木が多いため、ユーザ10は、パネル等が多くて見づらい場合が多い。
 一方で、図18のように、ユーザ10の近距離に絞ってAR表示がされると、ユーザ10は、表示が見やすい。特に、近距離は、遠近法上、樹木の間隔が広くなりやすいため、パネル等が重なりにくい。一方で、遠距離では、パネル等が重なり見づらい場合が多い。また、情報は、ユーザ10に近いほど重要である場合が多い。したがって、情報処理システム100は、現在位置から近距離にある範囲内について出力するように設定されるのが望ましい。
 <機能構成例>
 図19は、第4実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、設定出力部100F40を更に備える点が異なる。以下、異なる点を中心に説明する。
 設定出力部100F40は、現在位置から近距離にある第4樹木に対し、樹木データを出力する設定出力手順を行う。例えば、設定出力部100F40は、出力装置11H5等で実現する。
 [第5実施形態]
 第5実施形態は、第1実施形態と比較すると、樹高を計算する点が異なる。以下、樹高の計算対象となる樹木を「第5樹木」という。
 図20は、樹高の計算例を示す図である。以下のように樹高を計算する上で、全体処理は、例えば、「事前処理」と「実行処理」に分かれる。「事前処理」は、例えば、森林内に入る前等に行う。一方で、「実行処理」は「事前処理」の完了後、森林内で実行される。なお、「事前処理」は、「実行処理」より前に完了していればよく、「事前処理」及び「実行処理」は連続して実行しなくともよい。
 ステップS2001では、情報処理システム100は、キャリブレーションを行う。例えば、情報処理システム100は、複数の樹木を撮影する。そして、他の計測方法で計測した胸高直径を取得する。このようにすると、情報処理システム100は、撮影された樹木の胸高直径を計測できる。
 ほかにも、情報処理システム100は、ステレオカメラ等の計測機器により、撮影された樹木の胸高直径を計測できるようにしてもよい。
 このように、いくつかの樹木を計測した結果を取得すると、情報処理システム100は、以降、キャリブレーションデータに基づき、撮影された樹木の胸高直径を計測できる。
 ステップS2002では、情報処理システム100は、「細り」を計算する。
 「細り」は、樹木の高さに対して樹木の直径が細くなる割合を示す値である。樹木の幹は、根元から梢に向かって細くなる。そして、「細り」は、根元から梢までの太さの変化度合いを示す。太さは、例えば、直径等の径で示す。以下、径を胸高直径とする例で説明する。
 「細り」は、森林ごとにほぼ同じである場合が多い。そこで、「細り」は、森林ごとに計算されるのが望ましい。
 「細り」は、例えば、1本の樹木において、複数の直径を計測する。そして、高さの変化に対して直径がどれだけ変化を計算すると、情報処理システム100は、「細り」を計算できる。
 以上のように、事前処理を実行する(例えば、3本程度の樹木に対して行う。)と、情報処理システム100は、撮影した樹木の樹高を計算できる。次に、事前処理が実行された後、情報処理システム100は、以下のように、実行処理を実行する。
 ステップS2003では、情報処理システム100は、第5樹木を撮影する。
 ステップS2004では、情報処理システム100は、第5樹木の径、及び、計測高を計測する。例えば、情報処理システム100は、ステップS2003で取得する撮影データ、及び、キャリブレーションデータに基づき、第5樹木の径を計測する。また、情報処理システム100は、径を計測した計測点の高さを計算する。
 なお、情報処理システム100は、胸高直径のように、特定の計測高となる径を計測してもよい。すなわち、情報処理システム100は、径と、径を計測した計測高とが把握できればよい。
 ステップS2005では、情報処理システム100は、第5樹木の樹高を計算する。具体的には、情報処理システム100は、「細り」、径、及び、計測高に基づいて、第5樹木の樹高を計算する。
 以上のような全体処理を行うと、情報処理システム100は、第5樹木の樹高を計算できる。このように樹高が計算できると、例えば、図4に示す樹木データ164における「H」が出力できる。
 なお、情報処理システム100は、径を直径でなく、半径、又は、幅等としても樹高が計算できる。
 <機能構成例>
 図21は、第5実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、径計測部100F51、第3取得部100F52、及び、樹高計算部100F53を更に備える点が異なる。以下、異なる点を中心に説明する。
 径計測部100F51は、第5樹木が撮影されて画像データに写ると、画像データに基づいて第5樹木の所定の計測高における径を計測する径計測手順を行う。例えば、径計測部100F51は、CPU11H1等で実現する。
 第3取得部100F52は、森林ごとに、「細り」等の割合を計測高及び径に基づいて取得する第3取得手順を行う。例えば、第3取得部100F52は、CPU11H1等で実現する。
 樹高計算部100F53は、径、及び、割合に基づき、樹高を計算する樹高計算手順を行う。例えば、樹高計算部100F53は、CPU11H1等で実現する。
 以上のように、樹高が計算できると、例えば、樹木が倒れる場合に、情報処理システム100は、樹木が倒れる範囲を精度良く計算できる。また、樹高が計算できると、例えば、情報処理システム100は、樹木を倒して搬出等を行うのに、どのルートに最も近いか等が計算でき、搬出の計画を立てる等ができる。
 [第6実施形態]
 第6実施形態は、第1実施形態と比較すると、以下のような目印を出力できる点が異なる。
 図22は、第6実施形態における目印の出力例を示す図である。例えば、作業により、第46樹木TR46を倒した場合を例に説明する。
 例えば、HMD16は、AR表示で仮想線MKを第46樹木TR46に重ねて表示する。仮想線MKは、第46樹木TR46の端部を始点とした一定間隔ごとの目印の例である。例えば、仮想線MKは、3メートルごとに出力される。また、一定間隔は事前に設定される値である。
 なお、目印は、仮想線MK以外の形式でもよい。また、目印は、他のユーザが情報処理装置を有している場合には、他のユーザが有する情報処理装置で表示されてもよい。
 ほかにも、目印は、AR表示による出力に限られず、情報処理システム100がレーザポインタ等を備えて、レーザポインタによる光で位置を示す形式でもよい。
 例えば、情報処理システム100は、ステレオカメラ等の長さを計測できる計測機器を備える。このような計測機器があると、情報処理システム100は、第46樹木TR46の端部を始点にして、仮想線MK等のように、一定間隔ごとの目印が出力できる。
 <機能構成例>
 図23は、第6実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、目印出力部100F60を更に備える点が異なる。以下、異なる点を中心に説明する。
 目印出力部100F60は、樹木に、一定間隔ごとの目印を出力する目印出力手順を行う。例えば、目印出力部100F60は、出力装置11H5等で実現する。
 このような目印があると、ユーザは、一定間隔がどの位置であるかが把握できる。例えば、いわゆる「墨付作業」等が効率良くできる。すなわち、ユーザは、第46樹木TR46を一定間隔ごとに切る作業を行う場合がある。そこで、情報処理システム100は、ユーザが切る位置を目印で示す。このような目印があると、ユーザは効率良く作業ができる。
 [第7実施形態]
 第7実施形態は、第1実施形態と比較すると、ユーザ10が実際に通ったルート(以下「通過ルート71」という。)を学習する点が異なる。
 例えば、情報処理システム100は、第2実施形態における第1ルート、又は、第2ルート等のルートを生成する。以下、通過ルート71に対し、情報処理システム100が生成するルートを「生成ルート72」という。なお、生成ルート72は、手動等で生成されてもよい。
 情報処理システム100は、通過ルート71を記録する。いわゆる「ログ」又は「軌跡」として、情報処理システム100は、通過ルート71を記録する。なお、情報処理システム100は、通過ルート71以外に、画像データ等を一緒に記録してもよい。例えば、一定時間ごとに現在位置を記録しておき、時系列順に現在位置をつなぐと、通過ルート71となる。
 通過ルート71は、生成ルート72とは異なる場合がある。すなわち、ユーザ10に情報処理システム100が生成ルート72を示しても、ユーザ10は、生成ルート72とは異なるルートを通る場合がある。具体的には、生成ルート72を通ろうとしても、ルート上に回避物等がある場合である。
 又は、情報処理システム100が生成ルート72を通ろうとすると、ユーザ10が歩くには、厳しい傾斜、又は、足場が悪い等の障害が多い場合である。
 なお、これらの障害の位置等を把握するため、情報処理システム100は、ユーザ10による入力、画像データ、又は、センサデータ等を現在位置情報と一緒に記録してもよい。このように、位置以上の情報があると、回避物等も学習できる。
 <機能構成例>
 図24は、第7実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、学習を行うために、ルート記録部100F71、及び、学習部100F72を更に備える点が異なる。また、図24の上図は、情報処理システム100が学習装置となる構成を示す。一方で、図24の下図は、学習装置から情報処理システム100が学習済みモデルML2を取得して実行する実行装置となる構成を示す。
 情報処理システム100は、第1実施形態と比較すると、学習を行った後、すなわち、実行装置となる構成では、学習済みモデル取得部100F73、及び、ルート生成部100F74を更に備える点が異なる。以下、異なる点を中心に説明する。
 ルート記録部100F71は、通過ルート71を記録するルート記録手順を行う。例えば、ルート記録部100F71は、記憶装置11H2等で実現する。
 学習部100F72は、通過ルート71を学習モデルML1に学習させて学習済みモデルML2を生成する学習手順を行う。例えば、学習部100F72は、CPU11H1等で実現する。
 学習済みモデル取得部100F73は、学習済みモデルML2を取得する学習済みモデル取得手順を行う。例えば、学習済みモデル取得部100F73は、インタフェース11H3等で実現する。
 ルート生成部100F74は、学習済みモデルML2を用いて、生成ルート72を生成するルート生成手順を行う。例えば、ルート生成部100F74は、CPU11H1等で実現する。
 なお、情報処理システム100は、学習を行った後も学習を更に行ってもよい。すなわち、情報処理システム100は、ルート記録部100F71、学習部100F72、及び、ルート生成部100F74をいずれも備える構成でもよい。また、学習、及び、ルート生成は、同じ装置が行ってもよい。したがって、情報処理システム100は、ルート生成を行った「本番」の結果を学習データとして更に学習する構成でもよい。
 学習モデルML1、及び、学習済みモデルML2は、例えば、ベイジアンネットワーク(Bayesian Network)等のAIで実現する。ベイジアンネットワークを用いると、学習モデルML1、及び、学習済みモデルML2は、リンク元(親ノード)を条件とし、リンク先(子ノード)が条件付きの確率で定義される。そのため、ベイジアンネットワークを用いると、確率に基づき、親ノードと子ノードの要因関係が分かりやすい。
 また、ベイジアンネットワークを用いると、経験則が、学習モデルML1、及び、学習済みモデルML2に反映できる。そのため、経験上、ある変数と他の変数が関係あると分かっている場合に、ある変数と他の変数の関係を学習モデルML1、及び、学習済みモデルML2に反映できる。
 ほかにも、ベイジアンネットワークは、複数のルートを同時に検索する場合等に適する。
 なお、情報処理システム100は、他の機械学習を用いてもよい。
 以上のような構成であると、通過ルート71を学習して、情報処理システム100は、回避物がある場合等に回避物を避けて通る生成ルート72を生成できる。ほかにも、情報処理システム100は、通過ルート71を学習すると、傾斜パラメータp等のパラメータを最適化できる。したがって、情報処理システム100は、ユーザ10にとって、傾斜等が無理のない生成ルート72を生成できる。
 [第8実施形態]
 第8実施形態は、第1実施形態と比較すると、生体情報等を用いる点が異なる。
 生体情報は、例えば、心拍数、呼吸数、歩行速度、体温、血圧、心音、心電、視線、ふらつき、脳波、又は、これらの組み合わせ等である。すなわち、生体情報は、ユーザ10の状態を把握できるデータであればよい。ほかにも、生体情報は、性別、年齢、又は、登山歴等があってもよい。また、情報処理システム100は、計測する生体情報に合わせたセンサを備える。
 情報処理システム100は、ユーザ10から取得する生体情報を用いてルート(以下、生体情報に基づいて生成するルートを「第3ルート」という。)を生成する。具体的には、情報処理システム100は、心拍数を計測してユーザ10に負荷が少ないルートを生成する。
 図13に示すように、ルートは、傾斜パラメータp等に基づいて生成できる。第8実施形態では、情報処理システム100は、生体情報をパラメータ(以下「生体パラメータ」という。)とするにして、第3ルートを生成する。例えば、傾斜が大きくなくとも、道が悪くユーザ10に負荷がかかる場合がある。
 具体的には、心拍数を生体パラメータとすると、図13における傾斜パラメータpと同様に、心拍数が高いルートは、生体パラメータを高い値とする。
 負荷がかかっているか否かは、例えば、心拍数の数値増加等で検出できる。したがって、情報処理システム100は、ユーザ10に負荷がかかる箇所を避けるように第3ルートを生成する。
 また、生体情報は、労災、災害、遭難救助、及び、ルートの評価等に用いられてもよい。
 <機能構成例>
 図25は、第8実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、生体情報取得部100F81、及び、第3ルート生成部100F82を更に備える点が異なる。
 生体情報取得部100F81は、ユーザ10の生体情報を取得する生体情報取得手順を行う。例えば、生体情報取得部100F81は、インタフェース11H3等で実現する。
 第3ルート生成部100F82は、生体情報に基づいて第3ルートを生成する第3ルート手順を行う。例えば、第3ルート生成部100F82は、CPU11H1等で実現する。
 以上のような構成であると、情報処理システム100は、生体情報を取得して、ユーザ10にかかる負荷が大きいルート、又は、ユーザ10にかかった負荷が大きかったルートを把握できる。そして、情報処理システム100は、負荷が大きいルートを避けるようにルートを生成する。このようにすると、情報処理システム100は、生体情報に合わせて、ユーザ10にかかる負荷が小さいルートを生成できる。
 [第9実施形態]
 第9実施形態は、第1実施形態と比較すると、注目物等を用いる点が異なる。
 注目物は、工事に影響がある、危険である、又は、ルートを生成するのに影響がある物体である。また、注目物は、回避物であってもよい。
 例えば、注目物は、水等である。水が流れているか否かは、マップデータ、又は、地図等だけでは把握できない場合が多い。そこで、水、又は、水が流れている水みち(水道)等(以下、単に「水」という。)が現在位置にあると、ユーザ10は、現在位置と対応付けして水の存在を情報処理システム100に入力する。すなわち、情報処理システム100は、水のある位置を入力する。
 図26は、注目物の入力例を示す図である。例えば、注目物90は、マップ上等に箇所を示すように表示される。なお、注目物90は、発見したユーザ10が入力装置で操作して入力する、又は、センサによる検出結果等で入力される。
 例えば、水の箇所より下に森林作業道を通すと、森林作業道は水が流れ込みやすいため、水浸しになる。ゆえに、森林作業道を作る場合等のために、水のある位置が入力できるのが望ましい。
 また、森林内では、危険生物、又は、倒れそうな樹木等がある場合もある。このような危険がある箇所が把握できるのが望ましい。さらに、森林内には、電線、水道管、又は、銅管等が通っている場合もある。このような物体は、避けて工事する等といった工事に影響がある物体である。このような工事に影響する物体がある箇所が把握できるのが望ましい。このような現場でないと把握できない物体が存在する箇所が入力できるのが望ましい。
 なお、注目物90は、位置情報以外が入力されてもよい。例えば、注目物90は、種類、発見した日、又は、画像データ等が入力されてもよい。
 <機能構成例>
 図27は、第9実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、注目物入力部100F90を更に備える点が異なる。
 注目物入力部100F90は、回避物、工事に影響がある、危険である、又は、ルートを生成するのに影響がある注目物を入力する注目物入力手順を行う。例えば、注目物入力部100F90は、入力装置11H4等で実現する。
 以上のように、注目物90が入力できると、情報処理システム100は、工事に影響がある、危険である、又は、ルートを生成するのに影響がある物体等が森林内のどこに存在するかを把握できる。ゆえに、情報処理システム100は、より詳細な情報を森林環境情報として更新できる。このような情報があると、工事の計画等が立てやすくできる。
 [第10実施形態]
 第10実施形態は、第1実施形態と比較すると、航空データ、行政情報、又は、所有者情報を統合する点が異なる。
 航空データは、例えば、航空機、又は、ドローン等によって森林を上空から撮影して、又は、レーザを発して得られるデータである。このような結果は、樹木の位置(いわゆる「樹頂点位置」である。)が、地上で現在位置からレーザ光を周囲に発して得られるデータ(以下「地上データ」という。)とはズレが生じる場合がある。そこで、情報処理システム100は、以下のように航空データと地上データを統合する。
 図28は、第10実施形態における統合処理例を示す図である。
 ステップS2801では、情報処理システム100は、航空データと地上データにおいて、同じ位置と判断できる3本の樹木を抽出する。なお、抽出する本数は、事前に設定でき、任意の本数である。
 次に、情報処理システム100は、航空データの樹頂点位置と、地上データが示す樹木の位置の距離が最小となるように、ベクトル空間の線形変換を行う。
 図29は、航空データの例を示す図である。
 図30は、地上データの例を示す図である。
 実験では、図29における「tree apex ID 33」と図30における「ID 47」を抽出した。同様に、実験では、図29における「tree apex ID 80」と図30における「ID 82」を抽出した。さらに、実験では、図29における「tree apex ID 102」と図30における「ID 102」を抽出した。
 ステップS2802では、情報処理システム100は、ステップS2801で抽出した樹木に対し、航空データと地上データの間で最近点を同一の樹木として再度空間ベクトルの線形変換を行う。
 ステップS2803では、情報処理システム100は、同一の樹木を特定する。例えば、航空データと地上データの間で、位置の誤差が2m以内、及び、胸高直径が14cm以内であると、同一の樹木であると特定する。
 実験の結果、航空データで「134本」の樹木があった場合に、手動で行った場合と比較すると「98本」が一致した。このように、情報処理システム100は、航空データと地上データを統合する。このようにすると、情報処理システム100は、航空データ等による立木情報を精密化できる。
 また、情報処理システム100は、行政情報、又は、所有者情報を統合してもよい。
 行政情報は、森林簿、又は、林地台帳等である。すなわち、行政情報は、森林法等の様々な法令に基づき、行政が、境界、所有者、又は、森林に関する情報を記載した台帳等である。
 情報処理システム100は、行政情報、又は、所有者情報を統合して、境界、又は、所有者等の情報を合わせて出力してもよい。このような情報が統合されると、ユーザ10は、境界、又は、どこからが所有者が異なるか等を把握できる。
 <機能構成例>
 図31は、第10実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、データ統合部100F100を更に備える点が異なる。
 データ統合部100F100は、航空データ、又は、行政情報を統合するデータ統合手順を行う。例えば、データ統合部100F100は、CPU11H1等で実現する。
 以上のような構成であると、情報処理システム100は、計測部100F1による計測結果等を他のデータと統合させることができる。その結果、他のデータに計測結果、又は、計測結果に他のデータを反映させることができる。
 [第11実施形態]
 第11実施形態は、第1実施形態と比較すると、外部装置との通信がない点が異なる。すなわち、第11実施形態は、スタンドアロン型である。
 図32は、第11実施形態における情報処理システムの機能構成例を示す図である。例えば、情報処理システム100は、第1実施形態と比較すると、第1記憶部100F111、及び、第2記憶部100F112を更に備える点が異なる。
 第1記憶部100F111は、マップデータを記憶する第1記憶手順を行う。例えば、第1記憶部100F111は、記憶装置11H2等で実現する。
 第2記憶部100F112は、樹木データを記憶する第2記憶手順を行う。例えば、第2記憶部100F112は、記憶装置11H2等で実現する。
 第1実施形態と比較すると、マップデータ、及び、樹木データ等といった様々なデータが記憶されている点が異なる。例えば、データは、事前にメディア等に取得して記憶される。このように事前にデータを取得して記憶しておくと、森林内で通信があまり良くない環境であっても、情報処理システム100は、データを用いることができる。
 例えば、OWL(登録商標)で計測した結果は、データ容量を少量にできる。例えば、1ヘクタール(ha)を8メガバイト(MB)にできる。したがって、1000ヘクタールの森林であっても、8ギガバイト(GB)等である。ゆえに、8ギガバイトであれば、SDカード(登録商標)等のメディアにも記憶できる容量である。
 また、実験では、0.24ヘクタール用には、樹木データ(具体的には、樹木の位置、胸高直径、及び、樹高の情報等を示すデータである。)、地面データ(3Dデータ形式である。)、メッシュデータ(ルートを計算する等に用いるデータである。)は、合計で1852キロバイト(kB)である。このような少量のデータ容量であれば、メディアを用いて、スタンドアロン型でも成立する。ゆえに、情報処理システム100は、通信環境が良くない森林等でも使用できる。
 [実験結果]
 図33は、実験結果を示す図である。実験結果RSは、本実験の結果を示す。実験は、森林の入口(公衆回線による通信が可能な環境である。)で、まず、GNSS等により現在位置を取得する。したがって、スタート地点となる位置では、GNSSによる現在位置も、情報処理システム100によって特定する現在位置も誤差がほぼない状態でスタートする。図示するように、ユーザは、スタート地点からスタートし、目的地となる箇所まで森林内を歩行する。その森林内を歩行している間に現在位置の特定結果をプロットした結果が図示する結果である。そして、森林内を通って、スタート地点及び目的地を一往復した場合にどの程度のズレがあるかを調べた。
 図33において、実験結果RSは、図1等に示す情報処理システム100による位置の計測結果である。一方で、比較結果COは、GNSSによる位置の計測結果である。比較結果COでは、累積で5メートル程度のズレが発生した。一方で、実験結果RSが示すように、森林内では、情報処理システム100は、累積で5メートル以下の誤差で精度良く現在位置を特定できる。
 図示するように、情報処理システム100は、GNSS等と比較して精度良く位置を特定できる。また、情報処理システム100は、半径40メートル程度で位置を推定するのに2秒程度と高速で実行できる。
 また、情報処理システム100であると、樹木ごとの管理が容易にできる。例えば、GNSS等で管理する場合には、樹木ごとにタグ等をつけるが、タグでは森林内において、樹木を特定しにくい場合が多い。また、情報処理システム100は、タグ等がなくとも管理ができるため、管理が容易にできる。
 [変形例]
 情報処理システム100は、林業に限られず、トレイルランニング、マウンテンバイク、又は、サバイバルゲーム等に使用されてもよい。また、情報処理システム100は、重機等に搭載されてもよい。
 レーザ光を周囲に発して、森林内において、周囲を計測する方法は、OWL(登録商標)、すなわち、特許第5269729号公報等に記載する方法が望ましい。ただし、情報処理システム100は、OWL(登録商標)以外のカメラ等を用いてもよい。また、レーザ測距装置14、及び、カメラ15等のセンサ類は、ユーザ10の腰より上(例えば、肩等の高さである。)にユーザ10が装着するのが望ましい。この高さであると、ユーザ10等がセンシングの障害物となるのを少なくできる。
 プログラムは、コンピュータが有する演算装置、制御装置、及び、記憶装置等を協働させて上記に示す処理等をコンピュータに実行させる。すなわち、プログラムは、主記憶装置等にロードされて、演算装置に命令を発して演算を行わせてコンピュータを動作させる。
 また、プログラムは、コンピュータが読み込み可能な記録媒体、又は、ネットワーク等の電気通信回線を介して提供されてもよい。なお、森林内は、一般的な公衆回線(例えば、Long Term Evolution(LTE)、又は、無線LAN等である。)の通信網では通信が成立しない場合がある。したがって、森林内では、920MHz帯を使用する通信等が望ましい。
 本発明は、複数の装置で構成されるシステムで実現されてもよい。すなわち、複数のコンピュータによる診断システムは、上記に示す処理を冗長、並列、分散、又は、これらの組み合わせとなるように実行してもよい。したがって、本発明は、上記に示すハードウェア構成以外の装置、及び、上記に示す装置以外のシステムで実現されてもよい。
 本発明は、森林空間の利用を実現させて、SDGsの目標「3」、「4」、「8」、「9」、「11」、及び、「12」等に貢献できる。ほかにも、本発明は、森林の持続可能な経営を実現させて、SDGsの目標「6」、「11」、「13」、「14」、及び、「15」等に貢献できる。また、本発明は、スマート林業の実現に貢献して、木材の生産、加工、及び、流通を改善して、SDGsの目標「5」、「8」、「9」、「11」、及び、「12」等に貢献できる。さらに、本発明は、スマート林業の実現に貢献して、木材の利用を改善して、SDGsの目標「7」、「8」、「9」、「11」、「12」、及び、「13」等に貢献できる。
 本願は、2021年6月8日に出願された日本国特許出願 特願2021-095962号を基礎とする優先権を主張する出願である。したがって、本願は、基礎出願の内容をすべて参照できる。
 なお、本発明は、上記に例示する各実施形態に限定されない。したがって、本発明は、技術的な要旨を逸脱しない範囲で、構成要素の追加、又は、変形が可能である。また、実施形態は、複数の実施形態を組み合わせて実施できる。ゆえに、特許請求の範囲に記載された技術思想に含まれる技術的事項のすべてが本発明の対象となる。なお、上記に例示する実施形態は、実施において好適な具体例である。そして、当業者であれば、開示した内容から様々な変形例を実現で可能であって、このような変形例は、特許請求の範囲に記載された技術的範囲に含まれる。
10      :ユーザ
11      :第1情報処理装置
11H1    :CPU
11H2    :記憶装置
11H3    :インタフェース
11H4    :入力装置
11H5    :出力装置
12      :第2情報処理装置
14      :レーザ測距装置
15      :カメラ
16      :HMD
71      :通過ルート
72      :生成ルート
90      :注目物
100     :情報処理システム
100F1   :計測部
100F10  :記憶部
100F100 :データ統合部
100F11  :更新部
100F111 :第1記憶部
100F112 :第2記憶部
100F2   :第1取得部
100F21  :第1ルート生成部
100F22  :第2ルート生成部
100F3   :第2取得部
100F31  :予測部
100F32  :警告部
100F4   :撮影部
100F40  :設定出力部
100F5   :対応部
100F51  :径計測部
100F52  :第3取得部
100F53  :樹高計算部
100F6   :第1特定部
100F60  :目印出力部
100F7   :第2特定部
100F71  :ルート記録部
100F72  :学習部
100F73  :モデル取得部
100F74  :ルート生成部
100F8   :判断部
100F81  :生体情報取得部
100F82  :第3ルート生成部
100F9   :出力部
100F90  :注目物入力部
161     :透過画面
162     :透過領域
163     :ルート情報
164     :樹木データ
165     :施業情報
166     :防災情報
A1      :危険範囲
A2      :倒木予想
A3      :近距離範囲
CP1     :第1地点
CP2     :第2地点
CP3     :第3地点
D1      :樹木データベース
D2      :マップデータベース
D3      :取得データ
E1      :第1地域
E2      :第2地域
E3      :第3地域
L1      :等高線
M1      :第1ユーザ
M2      :第2ユーザ
MK      :仮想線
ML1     :学習モデル
ML2     :学習済みモデル
PL1     :第1パネル
R0      :ルート
R10     :第10ルート
R11     :第11ルート
RS      :実験結果
ST1     :始点
ST2     :終点
TR1     :第1樹木
TR31    :第31樹木
TR32    :第32樹木
TR33    :第33樹木
TR34    :第34樹木
TR35    :第35樹木
TR36    :第36樹木
TR37    :第37樹木
TR38    :第38樹木
TR39    :第39樹木
TR40    :第40樹木
TR41    :第41樹木
TR42    :第42樹木
TR43    :第43樹木
TR44    :第44樹木
TR45    :第45樹木
TR46    :第46樹木
p       :傾斜パラメータ
θ       :傾斜角
 

Claims (19)

  1.  森林でユーザの現在位置を特定する情報処理装置であって、
     前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測部と、
     前記森林を構成する樹木の配置を示すマップデータを取得する第1取得部と、
     前記マップデータが示す前記樹木の特徴を示す樹木データを取得する第2取得部と、
     前記ユーザの周辺を撮影して画像データを生成する撮影部と、
     前記画像データを解析した解析結果、及び、前記計測部による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応部と、
     前記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定部と
    を備える情報処理装置。
  2.  衛星と通信をして前記現在位置を特定する第2特定部と、
     前記第1特定部、及び、前記第2特定部のうち、どちらで前記現在位置を特定するかを判断する判断部とを更に備える
    請求項1に記載の情報処理装置。
  3.  前記第3樹木に対し、前記樹木データを出力する出力部を更に備える
    請求項1に記載の情報処理装置。
  4.  前記出力部は、
     前記第3樹木を基準にして、
     目的地への方向、又は、前記目的地へのルートを更に出力する
    請求項3に記載の情報処理装置。
  5.  前記撮影部は、
     前記ユーザの水平方向360°を撮影する
    請求項1に記載の情報処理装置。
  6.  前記マップデータ、及び、前記樹木データを記憶する記憶部を更に備え、
     前記第1取得部、及び、前記第2取得部は、
     前記記憶部から取得する
    請求項1に記載の情報処理装置。
  7.  前記ユーザ、又は、機械が利用する第1ルートを生成する第1ルート生成部と、
     前記第1ルートに対して回避物が入力されると、前記回避物を回避した第2ルートを生成する第2ルート生成部とを更に備える
    請求項1に記載の情報処理装置。
  8.  前記樹木が倒れる可能性がある範囲を予測する予測部と、
     前記範囲に前記ユーザである第1ユーザ、又は、前記ユーザとは異なる第2ユーザがいると、光、音、表示、振動、通信、又は、これらの組み合わせで警告を行う警告部とを更に備える
    請求項1に記載の情報処理装置。
  9.  前記現在位置から近距離にある第4樹木に対し、前記樹木データを出力する設定出力部を更に備える
    請求項1に記載の情報処理装置。
  10.  前記樹木のうち、樹高を計測する対象とする第5樹木が撮影されて前記画像データに写ると、前記画像データに基づいて、前記第5樹木の所定の計測高における径を計測する径計測部と、
     前記森林ごとに、前記樹木の高さに対して前記樹木の直径が細くなる割合を前記計測高及び前記径に基づいて取得する第3取得部と、
     前記径、及び、前記割合に基づき、前記樹高を計算する樹高計算部とを更に備える
    請求項1に記載の情報処理装置。
  11.  前記樹木に、一定間隔ごとの目印を出力する目印出力部を更に備える
    請求項1に記載の情報処理装置。
  12.  目的地へ前記ユーザが通った通過ルートを記録するルート記録部と、
     前記通過ルートを学習モデルに学習させる学習部とを備える
    請求項1に記載の情報処理装置。
  13.  目的地へ前記ユーザが通った通過ルートを記録するルート記録部と、前記通過ルートを学習モデルに学習させて学習済みモデルを生成する学習部とを備える学習装置から、前記学習済みモデルを取得する学習済みモデル取得部と、
     前記学習済みモデルを用いて、前記目的地へのルートを生成するルート生成部とを備える
    請求項1に記載の情報処理装置。
  14.  前記ユーザの生体情報を取得する生体情報取得部と、
     前記生体情報に基づいて第3ルートを生成する第3ルート生成部とを更に備える
    請求項1に記載の情報処理装置。
  15.  回避物、工事に影響がある、危険である、又は、ルートを生成するのに影響がある注目物を入力する注目物入力部を更に備える
    請求項1に記載の情報処理装置。
  16.  航空データ、又は、行政情報を統合するデータ統合部を更に備える
    請求項1に記載の情報処理装置。
  17.  森林でユーザの現在位置を特定する情報処理装置であって、
     前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測部と、
     前記森林を構成する樹木の配置を示すマップデータを記憶する第1記憶部と、
     前記マップデータが示す前記樹木の特徴を示す樹木データを記憶する第2記憶部と、
     前記ユーザの周辺を撮影して画像データを生成する撮影部と、
     前記画像データを解析した解析結果、及び、前記計測部による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応部と、
     前記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定部と
    を備える情報処理装置。
  18.  森林でユーザの現在位置を特定する情報処理システムであって、
     前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測部と、
     前記森林を構成する樹木の配置を示すマップデータを取得する第1取得部と、
     前記マップデータが示す前記樹木の特徴を示す樹木データを取得する第2取得部と、
     前記ユーザの周辺を撮影して画像データを生成する撮影部と、
     前記画像データを解析した解析結果、及び、前記計測部による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応部と、
     前記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定部と
    を備える情報処理システム。
  19.  森林でユーザの現在位置を特定する情報処理装置が行う情報処理方法であって、
     前記現在位置からレーザ光を周囲に発し、前記現在位置に対する各樹木までの距離を計測する計測手順と、
     前記森林を構成する樹木の配置を示すマップデータを取得する第1取得手順と、
     前記マップデータが示す前記樹木の特徴を示す樹木データを取得する第2取得手順と、
     前記ユーザの周辺を撮影して画像データを生成する撮影手順と、
     前記画像データを解析した解析結果、及び、前記計測手順による計測結果に基づき、前記マップデータが示す第1樹木と、前記計測結果、又は、前記解析結果に基づいて注目する第2樹木とを対応させる対応手順と、
     前記第1樹木に対応する前記第2樹木である第3樹木が複数存在すると、複数の前記第3樹木の位置に基づき、前記現在位置を特定する第1特定手順と
    を含む情報処理方法。
     
PCT/JP2022/016873 2021-06-08 2022-03-31 森林用の情報処理装置、情報処理システム、及び、情報処理方法 WO2022259750A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023527546A JPWO2022259750A1 (ja) 2021-06-08 2022-03-31

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021095962 2021-06-08
JP2021-095962 2021-06-08

Publications (1)

Publication Number Publication Date
WO2022259750A1 true WO2022259750A1 (ja) 2022-12-15

Family

ID=84425867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/016873 WO2022259750A1 (ja) 2021-06-08 2022-03-31 森林用の情報処理装置、情報処理システム、及び、情報処理方法

Country Status (2)

Country Link
JP (1) JPWO2022259750A1 (ja)
WO (1) WO2022259750A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300603A (ja) * 2005-04-18 2006-11-02 Falcon:Kk ナビゲーションシステム、ナビゲーション装置及びナビゲーション用プログラムを記録した記録媒体
JP2011064523A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 測位組み合わせ決定システム
JP5269729B2 (ja) * 2008-09-16 2013-08-21 株式会社アドイン研究所 樹木情報計測方法、樹木情報計測装置、プログラム
JP2019046464A (ja) * 2017-09-01 2019-03-22 株式会社コンピュータサイエンス研究所 歩道進行支援システム及び歩道進行支援ソフトウェア

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300603A (ja) * 2005-04-18 2006-11-02 Falcon:Kk ナビゲーションシステム、ナビゲーション装置及びナビゲーション用プログラムを記録した記録媒体
JP5269729B2 (ja) * 2008-09-16 2013-08-21 株式会社アドイン研究所 樹木情報計測方法、樹木情報計測装置、プログラム
JP2011064523A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 測位組み合わせ決定システム
JP2019046464A (ja) * 2017-09-01 2019-03-22 株式会社コンピュータサイエンス研究所 歩道進行支援システム及び歩道進行支援ソフトウェア

Also Published As

Publication number Publication date
JPWO2022259750A1 (ja) 2022-12-15

Similar Documents

Publication Publication Date Title
Rao et al. Real-time monitoring of construction sites: Sensors, methods, and applications
US11340355B2 (en) Validation of global navigation satellite system location data with other sensor data
US8588464B2 (en) Assisting a vision-impaired user with navigation based on a 3D captured image stream
US20200401617A1 (en) Visual positioning system
Liang et al. Possibilities of a personal laser scanning system for forest mapping and ecosystem services
US20180189578A1 (en) Lane Network Construction Using High Definition Maps for Autonomous Vehicles
US11415986B2 (en) Geocoding data for an automated vehicle
US11182043B2 (en) Interactive virtual interface
CN108801268A (zh) 目标对象的定位方法、装置及机器人
CN109923589A (zh) 构建和更新高程地图
CN115017246A (zh) 一种面向船舶智能航行的全息航行场景图系统和构建方法
JP2023518916A (ja) ウォークスルービデオの画像検索
Ullo et al. LiDAR-based system and optical VHR data for building detection and mapping
Islam et al. Off-road detection analysis for autonomous ground vehicles: A review
US20230236017A1 (en) Personal protective equipment for navigation and map generation within a visually obscured environment
JP2005322002A (ja) 複合人工知能装置
WO2022259750A1 (ja) 森林用の情報処理装置、情報処理システム、及び、情報処理方法
US11947354B2 (en) Geocoding data for an automated vehicle
US20230384114A1 (en) Personal protective equipment for navigation and map generation within a visually obscured environment
Baeck et al. Drone based near real-time human detection with geographic localization
US11675878B1 (en) Auto-labeling method for multimodal safety systems
US20230221123A1 (en) Personal protective equipment for navigation and map generation within a hazardous environment using fiducial markers
Battulwar Automatic Extraction of Joint Characteristics from Rock Mass Surface Point Cloud Using Deep Learning
US20230324921A1 (en) Autonomous Robotic Platform
Tan A Smart Helmet Framework Based on Visual-Inertial SLAM and Multi-Sensor Fusion to Improve Situational Awareness and Reduce Hazards in Mountaineering

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22819938

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023527546

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE