WO2020036217A1 - 物体検知装置 - Google Patents

物体検知装置 Download PDF

Info

Publication number
WO2020036217A1
WO2020036217A1 PCT/JP2019/032087 JP2019032087W WO2020036217A1 WO 2020036217 A1 WO2020036217 A1 WO 2020036217A1 JP 2019032087 W JP2019032087 W JP 2019032087W WO 2020036217 A1 WO2020036217 A1 WO 2020036217A1
Authority
WO
WIPO (PCT)
Prior art keywords
object detection
unit
detection
light
sensor
Prior art date
Application number
PCT/JP2019/032087
Other languages
English (en)
French (fr)
Inventor
和田 貴志
俊太郎 樫
田中 徹
Original Assignee
旭光電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 旭光電機株式会社 filed Critical 旭光電機株式会社
Priority to JP2020537105A priority Critical patent/JP7373177B2/ja
Publication of WO2020036217A1 publication Critical patent/WO2020036217A1/ja
Priority to JP2023109679A priority patent/JP2023115401A/ja
Priority to JP2023109678A priority patent/JP2023120455A/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers

Definitions

  • the present invention relates to an object detection device, and more particularly to an object detection device that can easily arrange an object detection sensor unit regardless of the shape of an installation place. Further, the present invention relates to an object detection device, and more particularly, to an object detection device that detects a vicinity of a surface of a mounting target to which an object detection sensor unit is attached. Further, the present invention relates to an object detection system, and more particularly to an object detection system capable of appropriately adjusting a detection area.
  • FIG. 12 shows a state where the object detection device Z100 (not shown) is disposed on the outer surface of an industrial robot as an example of use.
  • the object detection device Z100 has a plurality of optical sensor units ZSU and one central control unit Z115.
  • a plurality of optical sensor units Z111 and one unit control unit Z113 are connected in a star shape via an optical sensor connection line ZL111.
  • Unit control units Z113 belonging to one group line ZGL are cascaded through unit control unit connection lines ZL113.
  • One of the unit control units Z113 connected in a cascade type is connected to the central control unit Z115 via a unit control unit connection line ZL113.
  • the industrial robot Z50 is a robot having seven movable axes.
  • the industrial robot Z50 has arms ZAM1 to ZAM7, movable rotary joints ZJ1 to ZJ13, a base ZB1, and a hand ZH1.
  • An object detection device Z100 is arranged on each outer peripheral surface of the arms ZAM1 to ZAM7, the hand ZH1, and the base ZB1.
  • Each of the arms ZAM1 to ZAM7, the base ZB1, and the hand ZH1 is provided with one unit control unit and a plurality of optical sensor units Z111.
  • the optical sensor unit Z111 can be arranged at any location, such as the arms ZAM1 to ZAM7, the hand ZH1, the base ZB1, and the like, regardless of the shape of the installation location.
  • the object detection device Z100 can easily dispose the optical sensor portion Z111 on the outer surface of the device to be installed. Therefore, when an object such as a person is detected around the industrial robot, Can be emergency stopped. That is, the safety of the installation target device, for example, the industrial robot can be improved.
  • the optical sensor portion Z111 can be arranged at any position. Therefore, the optical sensor unit 111 can be disposed all around, regardless of the shape of the installation location, such as the prismatic arms ZAM1 to ZAM7 and the cylindrical base ZB1. Accordingly, an object such as a person can be detected on the entire periphery of the robot, so that the safety of the installation target device can be improved.
  • the optical sensor unit Z111 can be freely arranged. Therefore, since the occurrence of a blind spot can be prevented when the optical sensor unit Z111 is arranged, the safety of the installation target device can be improved.
  • the unit control unit connection line ZL113 can be connected to each other while avoiding obstacles.
  • the object detection device Z100 can be freely arranged regardless of the shape of the device to be arranged.
  • the object detection device Z100 In the object detection device Z100, the number and arrangement positions of the optical sensor units Z111 and the unit control units Z113, and the lengths of the optical sensor connection lines ZL111 and the unit control unit connection lines ZL113, regardless of the installation shape.
  • the object detection device can be easily arranged simply by adjusting.
  • the object detection device Z100 can change the installation position of the optical sensor unit Z111 and the unit control unit Z113 in accordance with a change in the installation environment, such as a change in a detection position, a detection range, a change in the installation position, a change in the shape of the installation target device. , Or by adding or reducing the number of installations, it is possible to easily respond to changes in the installation environment (see Patent Document 1).
  • the aforementioned object detection device Z100 has the following points to be improved.
  • the plurality of optical sensor units Z111 and the unit control unit Z113 need to be individually arranged on the installation target. For this reason, there is a point to be improved that the work of arranging the optical sensor unit Z111 and the unit control unit Z113 is complicated and takes time.
  • an object of the present invention is to provide an object detection device that is easy to handle and can easily arrange an object detection sensor unit regardless of the shape of an installation place.
  • the aforementioned object detection device Z100 has the following points to be improved.
  • the plurality of optical sensor units Z111 project the detection light outward from the surface of the industrial robot Z50, which is the installation target, that is, in the radial direction from the surface of each arm. . For this reason, there is a point to be improved that the vicinity of the surface of each arm of the industrial robot Z50 cannot be detected.
  • an object of the present invention is to provide an object detection device that can easily detect the vicinity of the surface of an installation target.
  • each of the optical sensor units Z111 may unintentionally detect the installation target itself on which it is installed. There is a point to be improved that it may be stopped.
  • an object of the present invention is to provide an object detection system that can prevent unintended object detection regardless of the shape of an attachment target.
  • An object detection device includes an object detection sensor unit that detects a surrounding object, a plurality of the object detection sensor units arranged, a flexible sensor arrangement flexible member having flexibility, and controls the operation of the object detection sensor unit.
  • the object detection sensor unit can be easily arranged regardless of the shape of the installation place.
  • an operation control system that controls the operation of the installation target when an object is detected around the installation target. Easy to build.
  • the sensor arrangement flexible member has a band shape, and includes the object detection sensor unit linearly arranged along a long axis of the band shape. .
  • the object detection sensor unit can be arranged on the arrangement target simply by winding the belt-shaped sensor arrangement flexible member around the arrangement target on which the object detection device is arranged.
  • the sensor arrangement flexible member is a sensor arrangement member on which the object detection sensor unit is arranged, and an intermediate flexible member connecting between the sensor arrangement members, and has an intermediate flexibility.
  • a flexible member is a sensor arrangement member on which the object detection sensor unit is arranged, and an intermediate flexible member connecting between the sensor arrangement members, and has an intermediate flexibility.
  • the sensor arrangement member to have flexibility and deform the sensor arrangement flexible member, so that the object detection sensor unit can be easily arranged regardless of the shape of the installation location.
  • an operation control system that controls the operation of the installation target when an object is detected around the installation target. Easy to build.
  • the intermediate flexible member has a telescopic mechanism for adjusting a length.
  • the object detection sensor unit can be arranged at a desired position.
  • the sensor arrangement flexible member has a plurality of unit flexible members on which the object detection sensor unit is arranged, and the unit flexible member is adjacent to the other unit flexible member. It has a connecting mechanism for connecting.
  • the sensor arrangement member to have flexibility and deform the sensor arrangement flexible member, so that the object detection sensor unit can be easily arranged regardless of the shape of the installation location.
  • an operation control system that controls the operation of the installation target when an object is detected around the installation target. Easy to build.
  • connection harness directly connects each of the object detection sensor units to the control unit.
  • the object detection sensor section does not have to be connected to another object detection sensor section via another object detection sensor section. Therefore, the object detection sensor unit can be arranged only in consideration of the positional relationship with the control unit such as the distance between the object detection sensor unit and the control unit. Can be placed in Further, the number of object detection sensor units connected to the control unit 17 can be easily increased or decreased.
  • connection harness cascade-connects the object detection sensor units.
  • the object detection sensor unit and the control unit can be connected with a simple configuration.
  • An object detection device includes an object detection sensor unit that detects a surrounding object, a plurality of the object detection sensor units arranged, a flexible sensor arrangement flexible member having flexibility, and controls the operation of the object detection sensor unit.
  • An object detection device having a control unit, a connection harness connecting the object detection sensor unit and the control unit, wherein the sensor arrangement flexible member is a sensor arrangement member on which the object detection sensor unit is arranged, and the object
  • An intermediate connection harness that cascade-connects between the detection sensor units, the intermediate connection harness having flexibility.
  • the object detection device can have a simple configuration.
  • the intermediate connection harness has a telescopic mechanism for adjusting a length.
  • connection harness may include a sensor connection line that connects the adjacent object detection sensor units, and a connection that directly connects the object detection sensor unit and the control unit. And an inter-sensor connection line protection unit that protects the inter-sensor connection line by covering the inter-sensor connection line.
  • the inter-sensor connection line is protected by the inter-sensor connection line covering portion, and it is possible to prevent the inter-sensor connection line from being damaged by an external force.
  • the inter-sensor connection line protection unit is disposed between each of the adjacent object detection sensor units.
  • the inter-sensor connection line protection unit has an annular structure.
  • the inter-sensor connection line protection unit has a sensor opening for disposing the object detection sensor unit.
  • the object detection sensor unit can be easily fixed in a ring shape.
  • An object detection device is an object detection device installed on a surface of a predetermined installation target object, and a light projecting unit that emits detection light in a direction intersecting with a normal direction of the surface, and And at least one of a light receiving unit that receives the detection light from a direction intersecting the normal direction of the surface.
  • the object detection device further includes a housing unit in which the light emitting unit and / or the light receiving unit is located, the housing unit having an annular structure.
  • the light emitting unit and the light receiving unit can be easily attached to the attachment target.
  • the casing has an end surface having a normal direction to a direction intersecting the normal direction of the surface, and the end surface emits the detection light. And / or an opening for receiving the detection light.
  • the light emitting unit emits the detection light to the light receiving unit of another object detection device
  • the light receiving unit is the light emitting unit of another object detection device. Receives the detection light emitted by the light emitting device.
  • the light-emitting unit forming a pair with the light-receiving unit includes the light-receiving unit, and the light-receiving unit receives the detection light emitted by the light-emitting unit forming the pair. , Is characterized.
  • the detection light emitted from the light projection unit may be paired with the light projection unit that emits the detection light.
  • a reflecting portion having a reflecting surface that reflects the light receiving portion.
  • the object detection system emits a predetermined detection light to a predetermined detection area, detects a surrounding object by receiving reflected light of the detection light, and detects a detection result as detection result information.
  • Object detection sensor unit a movement information acquisition unit that acquires movement information indicating its own movement state, the detection result information, and a transmission unit that transmits the position information, and receives detection region adjustment information that adjusts the detection region.
  • a detection area adjustment section that adjusts the detection area, for attaching to the mounting target
  • An object detection sensor unit having a housing portion, and a reception unit that receives the detection result information and the movement information, and a shape that estimates the shape of the attachment target using the received movement information.
  • a detection region interference determination unit that determines whether the detection region of the object detection sensor unit interferes with the estimated detection region and the estimated shape of the mounting target, and the estimated detection region.
  • a detection area adjustment information generation unit that generates detection area adjustment information that adjusts the detection area when it is determined that the shape of the installation target interferes with the estimated shape of the installation target;
  • An object detection control device having a detection region adjustment information transmission unit that transmits the detection region adjustment information to the object detection sensor unit that forms the detection region that interferes with the shape of the object.
  • the object detection sensor unit An object detection sensor unit that emits a predetermined detection light to a predetermined detection area, detects a surrounding object by receiving reflected light of the detection light, and uses the result of the detection as detection result information, and moves itself.
  • a movement information acquisition unit that acquires movement information indicating a state, a transmission unit that transmits the detection result information, and the position information, a reception unit that receives detection region adjustment information that adjusts the detection region, and the detection region adjustment information
  • the detection area adjustment unit adjusts the detection area using the detection area adjustment information when the detection light is projected next, and a housing unit for attaching to a mounting target.
  • the detection area can be adjusted after determining the shape of the attachment target and whether or not the detection area interferes, detection of an unintended object can be prevented.
  • the detection area adjusting unit adjusts the detection area to be reduced or set to 0 (zero).
  • the movement information acquisition unit is a three-axis acceleration sensor.
  • the object detection control device emits a predetermined detection light to a predetermined detection region, detects a surrounding object by receiving reflected light of the detection light, and detects a detection result as detection result information.
  • An object detection control device that transmits the detection area adjustment information to an object detection sensor unit having a housing unit for the detection result information, and a receiving unit that receives the movement information.
  • a detection area interference determination unit configured to determine whether or not the estimated detection area and the estimated shape of the mounting target interfere with each other, and generate detection area adjustment information for adjusting the detection area.
  • a detection area adjustment information transmitting unit that transmits the generated detection area adjustment information to the object detection sensor unit that forms the detection area that interferes with the estimated shape of the mounting target.
  • the detection area adjustment information generation unit generates the detection area adjustment information for reducing the detection area or adjusting the detection area to be 0 (zero). I do.
  • the detection area adjustment information generation unit includes the detection area adjustment information that shortens a light reception standby time in which the reflected light in the object detection sensor unit of the object detection sensor unit can be received. Is generated.
  • the detection area can be easily adjusted.
  • the detection area adjustment program includes: An object detection sensor unit that emits a predetermined detection light to a predetermined detection area, receives a reflected light of the detection light, detects a surrounding object, and uses a result of the detection as detection result information, A movement information acquisition unit that acquires movement information indicating its own movement state, a transmission unit that transmits the detection result information, and the position information, a reception unit that receives detection region adjustment information that adjusts the detection region, and the detection Upon receiving the region adjustment information, the next time the detection light is projected, using the detection region adjustment information, a detection region adjustment unit that adjusts the detection region, a housing unit for attaching to the mounting target, A detection area adjustment program that operates as an object detection control device that transmits the detection area adjustment information to an object detection sensor unit having the detection area adjustment program.
  • a detection area interference determination unit that determines whether the estimated detection area and the estimated shape of the mounting target interfere with each other, determines that the estimated detection area and the estimated shape of the mounting target interfere with each other
  • the detection area adjustment information generation unit that generates detection area adjustment information that adjusts the detection area, the generated detection area adjustment information forms the detection area that interferes with the estimated shape of the mounting target. It is operated as a detection area adjustment information transmission unit for transmitting to the object detection sensor unit.
  • the detection area is adjusted after determining the shape of the attachment target and whether or not the detection area interferes, detection of an unintended object can be prevented.
  • FIG. 1 is a diagram showing an object detection device 10 which is an embodiment of the object detection device according to the present invention.
  • FIG. 2 is a diagram illustrating a hardware configuration of an object detection sensor unit 13.
  • FIG. 5 is a view showing a sensor arrangement flexible member 15.
  • FIG. 3 is a diagram illustrating a hardware configuration of a control unit 17. 4 shows an example of installation of the object detection device 10.
  • FIG. 2 is a diagram illustrating a hardware configuration of an object detection device 20 which is an embodiment of the object detection device according to the present invention.
  • FIG. 3 is a diagram illustrating an object detection sensor unit 21 of the object detection device 20.
  • FIG. 2 is a diagram illustrating a hardware configuration of an object detection device 30 which is an embodiment of the object detection device according to the present invention.
  • FIG. 3 is a diagram illustrating a hardware configuration of an object detection sensor unit 31 of the object detection device 30. It is a figure showing other examples of an object detecting device. It is a figure showing other examples of an object detecting device.
  • FIG. 9 is a diagram illustrating a conventional object detection device. It is a figure showing the linear state of object detection device 40 which is one example of the object detection device concerning the present invention.
  • FIG. 3 is a diagram showing a linear state of the object detection device 40.
  • FIG. 4 is a diagram showing an annular state of the object detection device 40. It is the perspective view seen from the upper surface side of unit arrangement part 433. The perspective view seen from the lower surface side of the unit arrangement part 433. It is the perspective view seen from the upper surface side of the connection protection part 49 between sensors.
  • FIG. 2 is a diagram illustrating a hardware configuration of an object detection device 50 which is an embodiment of the object detection device according to the present invention.
  • FIG. 3 is a diagram showing an object detection sensor unit 51.
  • FIG. 3 is a diagram showing an object detection sensor unit 51. It is a figure showing connection line protection part 59 between sensors. It is a figure showing a section of sensor connection line protection part 59.
  • FIG. 2 is a diagram illustrating a hardware configuration of an object detection device 60 which is an embodiment of the object detection device according to the present invention.
  • FIG. 7 is a diagram showing a sensor connection line protection unit 69.
  • FIG. 3 is a diagram illustrating an object detection sensor unit 61.
  • FIG. 3 is a diagram illustrating a hardware configuration of a control unit X19. It is a setting example of the object detection device X10. It is a figure showing object detection device X20 which is one example of the object detection device concerning the present invention. It is a figure showing the appearance of object detection sensor unit X21. It is a figure showing the inside of object detection sensor unit X21. It is a setting example of the object detection device X20.
  • FIG. 1 is a diagram showing an object detection system 100 which is an embodiment of the object detection system according to the present invention.
  • FIG. 2 is a diagram illustrating an appearance of an object detection sensor unit 110.
  • FIG. 3 is a diagram showing the inside of a part of the object detection sensor unit 110;
  • FIG. 4 is a diagram illustrating a housing unit 119 of the object detection sensor unit 110.
  • FIG. 3 is a diagram illustrating a hardware configuration of a first object detection sensor unit 111.
  • FIG. 3 is a diagram illustrating a hardware configuration of a second object detection sensor unit 113.
  • FIG. 3 is a diagram illustrating a hardware configuration of a control unit 170. It is a figure showing the initial state of industrial robot RBT which is an attachment object.
  • 6 is a flowchart illustrating an operation of the control unit 170.
  • 6 is a flowchart illustrating an operation of the control unit 170.
  • 6 is a flowchart illustrating an operation of the control unit 170.
  • 5 is a flowchart illustrating an operation of the first object detection sensor unit 111.
  • 9 is a flowchart illustrating an operation of the second object detection sensor unit 113.
  • the object detection device 10 detects whether or not an object is present in the surroundings, and performs a predetermined operation based on the detection result of the object.
  • the object detection device 10 includes an object detection sensor unit 11, a control unit 17, and a connection harness 19.
  • the object detection sensor unit 11 has a plurality of object detection sensor units 13 and a flexible sensor arrangement member 15.
  • the object detection sensor unit 13 emits predetermined light as detection light, and receives reflection of the detection light to detect whether an object is present.
  • FIG. 2 shows a hardware configuration of the object detection sensor unit 13.
  • the object detection sensor unit 13 includes a light emitting element 13a, a light emitting lens 13b, a light receiving element 13c, and a sensor communication circuit 13d.
  • the light emitting element 13a emits predetermined detection light, for example, near infrared light.
  • the light projecting lens 13b diffuses the detection light emitted by the light projecting element 13a into a predetermined range (detection region R13). For example, by using a cylindrical lens, a detection area extending linearly in a predetermined direction can be formed.
  • the light projecting lens 13b by appropriately selecting the shape and characteristics of the lens, it is possible to prevent erroneous detection of an arrangement target such as an industrial robot on which the object detection sensor unit 13 is disposed. May be adjusted.
  • the light receiving element 13c receives the reflected light from the object of the detection light emitted by the light emitting element 13a.
  • the light projecting element 13a for example, a near infrared LED (Light Emitting Diode) or the like can be used.
  • the light receiving element 13c for example, a phototransistor, a photodiode, a light receiving element with a built-in amplifier circuit, or the like can be used. When a photodiode is used, an amplifier circuit and a filter circuit may be arranged together with the light receiving element 13c.
  • the sensor communication circuit 13d is connected to the sensor control communication circuit 17g of the control unit 17 so that the object detection sensor unit 13 and the control unit 17 can communicate with each other. Note that the sensor communication circuit 13d of each object detection sensor unit 13 is connected to the control unit 17 directly, that is, in parallel.
  • the sensor arrangement flexible member 15 is a member having flexibility and can be arranged along the surface of the object to be attached.
  • a material from which the sensor arrangement flexible member 15 can be formed for example, a thin rubber plate can be used.
  • FIG. 3A is a plan view of the sensor arrangement flexible member 15 on which the object detection sensor unit 13 is arranged.
  • the sensor arrangement flexible member 15 has a band shape, that is, an elongated rectangular shape.
  • the sensor arrangement flexible member 15 has a plurality of object detection sensor units 13 arranged linearly along the long axis J15 of the belt shape. Note that the object detection sensor units 13 are arranged on the sensor arrangement flexible member 15 at equal intervals.
  • the object detection sensor unit 13 is fixed to the sensor arrangement flexible member 15 by a predetermined fixing member such as a predetermined fixing member, an adhesive, and a screw.
  • a band-shaped detection region R11 is formed on the sensor arrangement flexible member 15 by the detection region R13 formed by each of the object detection sensor units 13 linearly arranged on the sensor arrangement flexible member 15. You. That is, the band-shaped detection region R13 is formed on the band-shaped sensor arrangement flexible member 15.
  • the control unit 17 receives sensor detection information from each object detection sensor unit 13 via the connection harness 19.
  • the control unit 17 receives the sensor detection information and sensor connection information indicating a connection relationship between the object detection sensor units 13 and / or an arrangement position of the connection relationship between the object detection sensor units 13 and the control unit 17. Then, it is determined whether or not an object exists around the object detection sensor unit 13.
  • the sensor connection information is stored in a storage unit such as a predetermined memory in advance.
  • the control unit 17 includes a CPU 17a, a memory 17b, a sensor control communication circuit 17g, and an operation control communication circuit 17h.
  • the CPU 17a performs processing based on the operating system (OS), the sensor control program, and other applications recorded in the memory 17b.
  • the memory 17b provides a work area for the CPU 17a and records and holds programs of other applications such as an operating system (OS), a sensor control program, and various data.
  • the sensor control communication circuit 17g is connected to the sensor communication circuit 13d (see FIG. 2) of the object detection sensor unit 13 via the connection harness 19 (see FIG. 1), and transmits and receives information between the two. Note that the sensor control communication circuit 17g is directly connected to each of the object detection sensor units 13, that is, connected in parallel.
  • the operation control communication circuit 17h is connected to an object whose operation is to be controlled based on detection of the presence of an object by the object detection sensor unit 11, and transmits and receives information between the two.
  • connection harness 19 directly connects each object detection sensor unit 13 and the control unit 17. That is, the connection harness 19 is a connection line for connecting each object detection sensor unit 13 to the control unit 17 in parallel.
  • the industrial robot RBT is a robot having seven movable axes.
  • the industrial robot RBT has arms AM1 to AM7, movable rotary joints J1 to J13, a base B1, and a hand H1.
  • the object detection sensor unit 11 of the object detection device 10 is arranged on each outer peripheral surface of the arms AM3, AM5, and the base B1.
  • the three object detection sensor units 11 arranged on the arms AM3 and AM5 and the base B1 are connected to the control unit 17.
  • the control unit 17 is connected to a power source (not shown) for operating the movable rotary joints J1 to J13 of the industrial robot RBT.
  • the control section 17 controls the operation of the arms AM1 to AM7 by controlling the operation of the power source.
  • Each object detection sensor unit 11 has the sensor arrangement flexible member 15 arranged along the outer periphery of each arm. By deforming the sensor arrangement flexible member 15, the object detection sensor unit 11 can be easily arranged irrespective of the shape of the arm AM3, AM5 which is the installation location. As described above, since the object detection sensor unit 11 can be easily arranged on the outer surface of the device to be installed, a safety system for urgently stopping the robot when an object such as a person is detected around the industrial robot. Can be easily constructed. That is, the safety of the installation target device, for example, the industrial robot can be easily configured.
  • the plurality of object detection sensor units 13 are arranged integrally with the sensor arrangement flexible member 15, it can be easily handled such as being carried.
  • the object detection sensor unit 11 can be arranged in any shape by adjusting the length of the sensor arrangement flexible member 15 and the number of the object detection sensor units 13 to be arranged. . Therefore, the object detection sensor unit 11 can be disposed on the surface regardless of the shape of the installation location, such as the prismatic arms AM1 to AM7 and the cylindrical base B1. This makes it possible to easily detect an object such as a person in a necessary range such as the entire periphery of the robot, so that the safety of the installation target device can be easily increased.
  • the object detection sensor unit 11 can be arranged while avoiding an obstacle.
  • the object detection sensor unit 11 can be freely arranged regardless of the shape of the object to be arranged.
  • the detection region R11 is formed on the sensor arrangement flexible member 15 (see FIG. 3), the region where the detection region R11 is formed along the shape of the sensor arrangement flexible member 15 can be grasped. Therefore, the detection region R11 of the object detection device 10 can be easily formed in a desired region.
  • the object detection sensor unit 13 is arranged on the sensor arrangement flexible member 15.
  • the sensor arrangement flexibility including the sensor arrangement member 251 for disposing the object detection sensor unit 13 and the intermediate flexible member 253 for connecting the sensor arrangement member 251 is provided.
  • the member 25 is used.
  • the object detection device 20 includes an object detection sensor unit 21, a control unit 17, and a connection harness 19.
  • the object detection sensor unit 21 includes a plurality of object detection sensor units 13 and a sensor arrangement flexible member 25.
  • the sensor arrangement flexible member 25 has a sensor arrangement member 251 and an intermediate flexible member 253.
  • the sensor arrangement member 251 has a square disk shape, and the object detection sensor unit 13 is arranged.
  • the intermediate flexible member 253 is arranged between the sensor arrangement members 251 and connects the sensor arrangement members 251 to each other.
  • the intermediate flexible member 253 has a belt 253a and a telescopic mechanism 253b.
  • the belt 253a has flexibility and is made of, for example, a cloth material used for a shoulder belt of a bag.
  • the extension mechanism 253b adjusts the length of the belt 253a between the adjacent sensor arrangement members 251. As the extension mechanism 253b, for example, a length adjustment mechanism used for a shoulder belt of a bag is used.
  • the sensor arrangement flexible member 25 By forming the sensor arrangement flexible member 25 using the sensor arrangement member 251 and the intermediate flexible member 253, the sensor arrangement flexible member 25 has flexibility as a whole, and is formed along the surface of the object to which the sensor arrangement flexible member 25 is mounted. Can be placed. Further, by using the telescopic mechanism 253b whose length can be adjusted, the length between the adjacent sensor arrangement members 251 can be adjusted, so that the object detection sensor unit 13 can be arranged at a desired position. Further, by increasing or decreasing the number of the sensor disposition members 251 and the intermediate flexible members 253, the entire length of the sensor disposition flexible member 25 can be adjusted. Therefore, the sensor disposition flexible member according to the size and length of the object to be disposed. 25 can be easily prepared.
  • Each object detection sensor unit 13 is connected to the control unit 17 in a parallel connection using a connection harness 19 (see FIG. 6).
  • the sensor arrangement flexible member 25 is given flexibility by using the sensor arrangement member 251 and the intermediate flexible member 253, and is provided along the surface of the object to be attached. Was to be placed.
  • a sensor arrangement flexible member 35 that connects a plurality of unit flexible members 351 is used.
  • the object detection device 30 includes an object detection sensor unit 31, the control unit 17, and the connection harness 19.
  • the object detection sensor unit 31 includes a plurality of object detection sensor units 13 and a sensor arrangement flexible member 35.
  • the sensor arrangement flexible member 35 has a plurality of unit flexible members 351.
  • the unit flexible member 351 has a rectangular plate shape, and the object detection sensor unit 13 is disposed. Further, the unit flexible member 351 has a connection mechanism for connecting to another unit flexible member 351 located adjacent thereto.
  • the connecting mechanism for example, an endless track belt connecting mechanism called a crawler or a caterpillar is used.
  • the sensor arrangement flexible member 35 By forming the sensor arrangement flexible member 35 using the unit flexible member 351, flexibility can be given to the sensor arrangement flexible member 35, and the sensor arrangement flexible member 35 can be arranged along the surface of the object. In addition, the number of unit flexible members 351 to be connected can be increased or decreased, and the overall length of the sensor arrangement flexible member 35 can be easily changed. Therefore, it is possible to easily prepare the sensor arrangement flexible member 35 according to the size and shape of the target object.
  • each object detection sensor unit 13 is connected to the control unit 17 in a parallel connection via a connection harness 19 (see FIG. 8).
  • the object detection sensor unit 13 arranged on the sensor arrangement flexible member 15 is connected to the control unit 17 in parallel.
  • each object detection sensor unit 13 is cascade-connected to the adjacent object detection sensor unit 13 by a flexible connection line, and a connection line between the object detection sensor units 13 is provided. Is to protect.
  • the same components as those of the first embodiment are denoted by the same reference numerals, and the detailed description is omitted.
  • the object detection sensor unit 41 (described later) of the object detection device 40 has a linear state (see FIGS. 13 and 14) in which the sensor arrangement flexible members 45 (described later) are linearly arranged, and both ends of the sensor arrangement flexible member 45. Are connected (see FIG. 15).
  • FIG. 13 shows a state in which the inter-sensor connection line protection unit 49 is attached in a linear state
  • FIG. 14 shows a state in which the inter-sensor connection line protection unit 49 is removed. 13 and 14, only one end of the object detection sensor unit 41 is shown.
  • the object detection device 40 includes an object detection sensor unit 41, the control unit 17, and the connection harness 19.
  • the object detection sensor unit 41 has a plurality of object detection sensor units 43, a flexible sensor arrangement member 45, and an inter-sensor connection line protection unit 49. Further, as shown in FIG. 14, the object detection sensor unit 41 has a plurality of inter-sensor connection lines 47.
  • the object detection sensor unit 43 has a sensor board 431 and a unit arrangement unit 433.
  • the sensor board 431 is a circuit board, and includes a light emitting element 13a, a light emitting lens 13b, a light receiving element 13c, and a sensor communication circuit 13d (see FIG. 2).
  • FIG. 16 is a perspective view of the unit arrangement portion 433 viewed from the upper surface side
  • FIG. 17 is a perspective view of the unit arrangement portion 433 viewed from the lower surface side.
  • the unit arrangement section 433 has a unit protection housing section 433a and a sensor arrangement flexible member locking section 433b.
  • the unit protection housing 433a is a case that houses the sensor substrate 431 inside.
  • the unit protection housing portion 433a has an inner space 433a1, a light emitting opening 433a2, a light receiving opening 433a3, and an inter-sensor connection line opening 433a4.
  • one of the object detection sensor units 43 connected to each other which is located at the end, is further connected to the unit protection housing unit 433a for connecting the connection harness 19 for connecting to the control unit 17. It has a connection harness opening 433a5 (see FIG. 15).
  • the sensor board disposing internal space 433a1 is a space for disposing the sensor board 431.
  • the light projecting openings 433a2 are formed corresponding to the positions of the light projecting elements 13a and the light projecting lenses 13b (see FIG. 2) on the sensor substrate 431 arranged in the sensor substrate disposing internal space 433a1.
  • the sensor substrate 431 emits detection light via the light projection opening 433a2.
  • the light receiving opening 433a3 is formed corresponding to the position of the light receiving element 13c (see FIG. 2) on the sensor substrate 431 disposed in the sensor substrate disposing internal space 433a1.
  • the sensor substrate 431 receives the reflected light of the emitted detection light via the light receiving opening 433a3.
  • the sensor connection line opening 433a4 is formed corresponding to the position of the sensor communication circuit 13d (see FIG. 2) on the sensor board 431 arranged in the sensor board arrangement internal space 433a1.
  • the sensor board 431 is connected to another adjacent sensor board 431 by an inter-sensor connection line 47 (described later) via the inter-sensor connection line opening 433a4.
  • the upper surface of the unit protection housing 433a is made parallel to the light projecting surface of the light projecting element 13a and the light receiving surface of the light receiving element 13c, thereby projecting the detection light in the light projecting element 13a and reflecting the light in the light receiving element 13c. Light reception and light reception can be prevented.
  • the sensor arrangement flexible member locking portion 433b is a lower portion of the unit protection housing portion 433a, that is, a surface on the opposite side to the surface on which the light emitting opening 433a2 and the light receiving opening 433a3 of the unit protection housing portion 433a are formed. It is formed so as to protrude from. As shown in FIG. 17, the sensor arrangement flexible member locking portion 433b has a convex shape having an L-shaped cross section.
  • the sensor-arranged flexible member engaging portions 433b are formed as a set of two such that their L-shaped cross-section ends face each other.
  • the sensor arrangement flexible member locking section 433b has a flexible member insertion space 433b1 and a flexible member arrangement space 433b2.
  • the flexible member insertion space 433b1 is a space for inserting the sensor arrangement flexible member 45 into the flexible member arrangement space 433b2.
  • the flexible member arrangement space 433b2 is a space for disposing the sensor arrangement flexible member 45.
  • the sensor arrangement flexible member 45 arranged in the flexible member arrangement space 433b2 is fixed to the unit protection housing section 433a by the sensor arrangement flexible member locking section 433b.
  • the sensor arrangement flexible member 45 holds the object detection sensor unit 43 and the inter-sensor connection line protection unit 49 in a straight line, and integrates both.
  • the sensor arrangement flexible member 45 is a belt-like material having flexibility. As the sensor arrangement flexible member 45, for example, both fasteners are used.
  • the sensor arrangement flexible member 45 By connecting one end 45T1 (see FIG. 13) of the sensor arrangement flexible member 45 and the other end 45T2 (not shown), as shown in FIG. It is made to be in a ring shape, and is wrapped around an object to be mounted, for example, an arm of an industrial robot and fixed.
  • the length of the sensor arrangement flexible member 45, the number of the object detection sensor units 43 to be attached to the sensor arrangement flexible member 45, and the interval (pitch) between the adjacent object detection sensor units 43 are determined according to conditions such as the size of the attachment target and the detection range. adjust.
  • the inter-sensor connection line 47 is an electrical connection line for cascading adjacent sensor boards 431.
  • the inter-sensor connection line 47 has flexibility and absorbs a positional shift of the object detection sensor unit 43.
  • the inter-sensor connection line 47 is arranged along the sensor arrangement flexible member 45. In FIG. 14, the inter-sensor connection lines 47 are described in a straight line, but have a certain margin or a certain degree of redundancy due to a bellows shape or the like.
  • FIG. 18 is a perspective view of the inter-sensor connection line protection section 49 as viewed from the upper side
  • FIG. 19 is a perspective view of the lower side.
  • the inter-sensor connection line protection unit 49 includes an inter-sensor connection line covering unit 49a and a sensor arrangement flexible member locking unit 49b.
  • the inter-sensor connection line covering portion 49a is formed so as to cover the inter-sensor connection line 47 connecting the sensor substrates 431, that is, above the inter-sensor connection line 47.
  • the sensor arrangement flexible member locking portion 49b is formed so as to protrude from a lower portion of the inter-sensor connection wire covering portion 49a.
  • the sensor arrangement flexible member locking portion 49b has a convex shape having an L-shaped cross section.
  • the sensor-arranged flexible member locking portions 49b are formed so that two of them are one set, and their L-shaped cross sections face each other.
  • the inter-sensor connection line protection section 49 has a flexible member insertion space 49b1 and an inter-sensor connection line / flexible member arrangement space 49b2.
  • the flexible member insertion space 49b1 is a space for inserting the inter-sensor connection line 47 and the sensor arrangement flexible member 45 into the inter-sensor connection line / flexible member arrangement space 49b2.
  • the inter-sensor connection line / flexible member arrangement space 49b2 is a space for disposing the inter-sensor connection line 47 and the sensor arrangement flexible member 45.
  • the inter-sensor connection line 47 arranged in the inter-sensor connection line / flexible member arrangement space 49b2 is protected by the inter-sensor connection line covering portion 49a. This can prevent the inter-sensor connection line 47 from being damaged by an external force.
  • the sensor arrangement flexible member 45 arranged in the inter-sensor connection line / flexible member arrangement space 49b2 is fixed to the inter-sensor connection line protection section 49 by the sensor arrangement flexible member locking section 49b.
  • inter-sensor connection line protection section 49 is formed corresponding to each inter-sensor connection line 47 connecting between the sensor boards 431, the flexibility of the sensor arrangement flexible member 45 is not impaired.
  • the inter-sensor connection line protection unit 49 is formed for each inter-sensor connection line 47 that connects the sensor boards 431, while the object detection device 50 according to the fourth embodiment. Then, the plurality of inter-sensor connection lines 47 are integrally covered.
  • the same components as those in the fourth embodiment are denoted by the same reference numerals, and the detailed description is omitted.
  • the object detection device 50 includes an object detection sensor unit 51, the control unit 17, and the connection harness 19.
  • the object detection sensor unit 51 includes a plurality of object detection sensor units 43, a flexible sensor arrangement member 45 (see FIG. 22), an inter-sensor connection line 47 (see FIG. 22), and an inter-sensor connection line protection unit 59.
  • the sensor connection line protection part 59 has a hollow cylindrical shape.
  • the inter-sensor connection line protection unit 59 has a first housing 591, a second housing 592, and a hinge 593. The first housing 591 and the second housing 592 are respectively rotated around the hinge 593 in the directions of the arrow R21 and the arrow R22 so that the object detection sensor unit 43 and the like are provided in the hollow cylindrical internal space. Place.
  • the first housing 591 and the second housing 592 each have a hollow semicylindrical shape obtained by dividing a hollow cylindrical shape along an axis.
  • the first housing 591 and the second housing 592 are configured to engage with each other at an end different from the hinge 593 and to be integrated.
  • FIG. 21 shows a state where one end 591d of the first housing 591 and one end 592d of the second housing 592 are removed.
  • the first housing 591 faces the inter-sensor connection wire covering portion 591a, the end portion 591b along the hollow cylindrical end surface, the inner peripheral portion 591c along the hollow cylindrical inner peripheral surface, and the end portion 591b. End 591d. Note that the end portion 591b and the inner peripheral portion 591c are integrally formed.
  • the first casing 591 is formed by fitting the inter-sensor connection wire covering portion 591a and the end portion 591d to the end portion 591b and the inner peripheral portion 591c formed integrally. The same applies to the second housing 592.
  • FIG. 22 shows a state in which the inter-sensor connection wire covering portion 591a and the inter-sensor connection line covering portion 592a are removed from the first housing 591 and the second housing 592 shown in FIG.
  • the inter-sensor connection line covering portions 591a and 592a are formed at positions covering the inter-sensor connection lines 47 connecting the sensor substrates 431 (see FIG. 13). .
  • FIG. 23 shows a state in which the object detection sensor unit 43, the flexible sensor arrangement member 45, and the inter-sensor connection line 47 have been removed from the inter-sensor connection line protection unit 59 shown in FIG.
  • the inter-sensor connection wire covering portion 591a has an annular structure divided into two parts.
  • the inter-sensor connection wire covering portion 591a has a sensor arrangement opening 591a1 for disposing the object detection sensor unit 43.
  • a portion where the sensor arrangement opening 591a1 is not formed corresponds to a position where the inter-sensor connection line 47 is covered, and has a function of protecting the inter-sensor connection line 47.
  • the object detection sensor unit 43 is disposed in an internal space formed by the inter-sensor connection wire covering portion 591a and the inner peripheral portion 591c. Further, the engagement of the sensor arrangement opening 591a1 and the object detection sensor unit 43 fixes the position of the object detection sensor unit 43 with respect to the inter-sensor connection wire covering unit 591a. The above also applies to the second housing.
  • the hollow cylindrical inter-sensor connection line protection portion 59 it is possible to prevent an external force from acting on the inter-sensor connection line 47. That is, it is possible to prevent the sensor connection line 47 from being damaged. Further, since the shape of the object detection sensor unit 51 can be fixed in the inter-sensor connection line protection section 59 before attaching to the attachment target, it can be easily attached to the attachment target.
  • the inter-sensor connection line protection unit 59 sets the distance L1 from the light emitting element 13a and the light receiving element 13c to the outer peripheral surface of the inter-sensor connection line covering unit 591a in advance in the object detection sensor unit 43.
  • the distance does not impair the measurement performance of the sensor, such as the set detection region R13 and the light receiving range R14 set in advance in the object detection sensor unit 43.
  • the distance L1 from the light projecting element 13a and the light receiving element 13c to the outer peripheral surface of the inter-sensor connection line covering portion 591a is short. For example, if the thickness of the inter-sensor connection line protection portion 59 is reduced. Good. The same applies to the second housing 592.
  • the object detection sensor unit 43 having the unit arrangement unit 433 is arranged in the inter-sensor connection line protection unit 59.
  • the object detection sensor unit 63 without the unit arrangement unit 433 is disposed in the inter-sensor connection line protection unit 69.
  • the same components as those in the first to fifth embodiments are denoted by the same reference numerals, and detailed description will be omitted.
  • the object detection device 60 includes an object detection sensor unit 61, the control unit 17, and the connection harness 19.
  • the object detection sensor unit 61 has a plurality of object detection sensor units 63, inter-sensor connection lines 67 (see FIG. 27), and inter-sensor connection line protection units 69.
  • the inter-sensor connection line protection section 69 has a hollow cylindrical shape.
  • the inter-sensor connection line protection unit 69 has a first housing 691, a second housing 692, and a hinge 593. The first housing 691 and the second housing 692 rotate in the directions of the arrow R31 and the arrow R32 around the hinge 593, respectively, and the object detection sensor 63 and the sensor arrangement flexibility are provided in the hollow cylindrical internal space. A space for inserting the member 65 is formed.
  • the first housing 691 and the second housing 692 each have a shape obtained by dividing a hollow cylindrical shape along an axis.
  • the first housing 691 and the second housing 692 are configured to engage with each other at an end different from the hinge 593 and to be integrated.
  • FIG. 26 shows an inter-sensor connection line protection unit 69 in a state where one end 691d of the first housing 691 and one end 692d of the second housing 692 are removed.
  • the first casing 691 faces the inter-sensor connection wire covering portion 691a, the end portion 691b along the hollow cylindrical end surface, the inner peripheral portion 691c along the hollow cylindrical inner peripheral surface, and the end portion 691b. 26 (not shown in FIG. 26, see FIG. 25). Note that the end portion 691b and the inner peripheral portion 691c are formed integrally.
  • the first housing 691 is formed by fitting the inter-sensor connection wire covering portion 691a and the end portion 691d to the end portion 691b and the inner peripheral portion 691c formed integrally.
  • the sensor connection line covering portion 691a does not inhibit the light projection opening 691a1 and the light receiving element 13c from receiving the reflected light so as not to inhibit the projection of the detection light in the light projecting element 13a of the object detection sensor section 63. Has a light receiving opening 691a2.
  • the object detection sensor section 63 is disposed in an internal space formed by the inter-sensor connection wire covering section 691a and the inner peripheral section 691c.
  • FIG. 27 shows a state in which the inter-sensor connection wire covering portion 691a is removed from the first housing 691 shown in FIG.
  • the object detection sensor unit 63 is a circuit board, and includes a sensor board 631, a light projecting element 13a, a light projecting lens 13b (not shown, see FIG. 2), a light receiving element 13c, and a sensor It has a communication circuit 13d.
  • the adjacent sensor boards 631 are connected by sensor connection lines 67.
  • the inter-sensor connection line 67 is connected to the sensor communication circuit 13d of the object detection sensor unit 63, has a function of electrically connecting the adjacent object detection sensor unit 63, has flexibility, and has an object to be attached. It also has a function of physically connecting adjacent sensor substrates 631 to each other.
  • the inter-sensor connection line covering portion 691a is formed at a position covering the object detection sensor unit 63 (see FIG. 27) and covers the inter-sensor connection line 67. It is also formed at the position.
  • the portion of the inter-sensor connection line covering portion 691a other than the position covering the object detection sensor portion 63 has a function of protecting the inter-sensor connection line 67.
  • the surface covering the object detection sensor unit 63 (see FIG. 27) of the inter-sensor connection line covering unit 691a is made parallel to the light projecting surface of the light projecting element 13a and the light receiving surface of the light receiving element 13c. The projection of the detection light and the reception of the reflected light from the light receiving element 13c can be prevented from being hindered. The above also applies to the second housing.
  • the shape of the object detection sensor unit 63 can be fixed in an annular shape before the object detection sensor unit 63 is mounted on the mounting target (for example, an industrial robot). Can be easily installed.
  • An object detection device will be described by taking an example of an object detection device X10 shown in FIG. 28 as an embodiment.
  • the object detection device X10 detects whether or not an object exists in a predetermined detection area, and performs a predetermined operation based on the detection result of the object.
  • the configuration of the object detection device X10 will be described with reference to FIG.
  • the object detection device 10 includes an object detection sensor unit X11 and a control unit X19.
  • two object detection sensor units X11 are arranged as a pair so as to face each other. An object is detected by determining whether or not the other object detection sensor unit X11 receives the detection light emitted from one object detection sensor unit X11.
  • FIG. 29 shows the appearance of the object detection sensor unit 11.
  • the object detection sensor unit X11 has a housing portion X13, an axial light projecting portion X15 (described later), and an axial light receiving portion X17 (described later). Inside the housing portion X13, an axial light projecting portion X15 and an axial light receiving portion X17 are arranged.
  • the housing part X13 has a thin hollow cylindrical shape.
  • the housing unit X13 has a first housing unit 131, a second housing unit 132, and a hinge unit 133.
  • the first housing 131 and the second housing 132 rotate around the hinge 133 in the directions of the arrow A21 and the arrow A22, respectively.
  • the first casing 131 and the second casing 132 each have a hollow semi-cylindrical shape obtained by dividing a hollow cylindrical shape into two.
  • the first housing part 131 and the second housing part 132 are configured to engage with each other at an end different from the hinge part 133 and to be integrated.
  • the first housing portion 131 has an outer peripheral portion 131a, an opening-forming end 131b for transmitting and receiving light, an end 131c located opposite to the opening-forming end 131b for transmitting and receiving light, and an inner peripheral portion 131d. .
  • the light emitting and receiving opening forming end 131b, the end 131c, and the inner peripheral portion 131d are integrally formed.
  • the first housing portion 131 is formed by fitting the outer peripheral portion 131a to the integrally formed light emitting / receiving opening forming end portion 131b, the end portion 131c, and the inner peripheral portion 131d. .
  • the outer peripheral portion 131a is formed as a thin cylindrical shape corresponding to the outer peripheral surface of the hollow cylindrical shape.
  • the light emitting and receiving opening forming end 131b is formed as a ring-shaped lid that closes one end surface of the hollow cylindrical shape.
  • the light emitting and receiving opening forming end 131b has a direction intersecting the normal direction of the surface of the installation target. It has an end face P131b in the normal direction N13.
  • the light emitting / receiving opening forming end 131b has a plurality of light emitting / receiving openings R131a.
  • the light emitting and receiving openings R131a are formed at predetermined intervals.
  • the end 131c is formed as an annular lid that closes the other end of the hollow cylindrical shape.
  • the end 131c is formed to face the light projecting / receiving opening forming end 131b via the outer periphery 131a and the inner periphery 131d.
  • the inner peripheral portion 131d is formed as a thin cylindrical shape corresponding to the inner peripheral surface of the hollow cylindrical shape.
  • the object detection sensor unit X11 can be easily attached to an attachment target, for example, an arm of an industrial robot.
  • FIG. 30 shows the internal structure of the object detection sensor unit X11.
  • FIG. 30 shows a state where the outer peripheral portions 131a and 132a of the housing portion X13 have been removed from the object detection sensor unit X11 shown in FIG.
  • the axial light projecting unit X15 emits predetermined detection light, for example, near infrared light.
  • the axial light projecting unit X15 emits near infrared rays using, for example, a near infrared LED (Light Emitting Diode) or the like.
  • the axial light projecting unit X15 projects the detection light in a predetermined range using a predetermined light projecting lens or the like.
  • the axial light receiving unit X17 receives the detection light emitted from the axial light emitting unit X15.
  • the axial light receiving unit X17 receives the detection light using, for example, a phototransistor, a photodiode, a light receiving element with a built-in amplifier circuit, or the like.
  • a photodiode When a photodiode is used, an amplifier circuit and a filter circuit may be provided.
  • the axial light projecting unit X15 and the axial light receiving unit X17 are arranged on a predetermined substrate S, respectively.
  • the board S at the end of the predetermined sensor communication line W is connected to the control unit X19 via the control unit connection line connector C using a control unit connection line (not shown).
  • the axial light projecting part X15 and the axial light receiving part X17 are alternately arranged inside the housing part X13. Further, the axial light projecting unit X15 is provided with a light projecting / receiving opening R131a, so that the detection light to be projected can be projected from the light projecting / receiving openings R131a and R132a of the case X13 toward the outside of the case X13. It is arranged in accordance with the position of R132a. That is, the axial light projecting unit X15 emits the detection light along the normal direction N13 of the end face P131b, that is, along the axial direction of the housing part X13. The axial light projecting unit X15 acquires the light projecting control information indicating the light projecting timing from the control unit X19, and appropriately emits the detection light.
  • the axis direction light receiving portion X17 is arranged in accordance with the positions of the light emitting and receiving openings R131a and R132a so that the detection light to be emitted can be received through the light emitting and receiving openings R131a and R132a of the housing portion X13. That is, the axial direction light receiving portion X17 receives the detection light projected along the axial direction of the housing portion X13.
  • the axial direction light receiving unit X17 transmits information as to whether or not the detection light has been received to the control unit X19 as detection information.
  • the axial light receiving unit X17 acquires light receiving control information indicating the light receiving timing of the detection light, and appropriately receives the detection light.
  • the two object detection sensor units X11 are opposed to each other, and the detection light emitted by the axial light projecting portion X15 of one object detection sensor unit X11 is used to detect the other object detection unit X11.
  • the sensor unit X11 By arranging the sensor unit X11 to receive light in the axial direction light receiving unit X17, an object can be detected in a region along the axial direction from one object detection sensor unit X11 to the other object detection sensor unit X11. .
  • an object detection sensor unit X11 on an arm of an industrial robot, an object can be detected in a region along the arm. That is, an object in an area closer to the arm can be detected.
  • control unit X19 receives the detection information from the object detection sensor unit X11. The control unit X19 determines whether or not an object exists in the detection area based on the received detection information. In addition, the control unit X19 transmits light emission control information to the axial light projection unit X15 and light reception control information to the axial light reception unit X17.
  • the control unit X19 determines that an object is present when the axial light receiving unit X17 cannot receive the detection light, that is, when the detection light emitted from the axial light projection unit X15 is blocked.
  • the control unit 19 has a CPU 19a, a memory 19b, a sensor control communication circuit 19g, and an operation control communication circuit 19h.
  • the CPU 19a performs processing based on the operating system (OS), the object detection program, and other applications recorded in the memory 19b.
  • the memory 19b provides a work area for the CPU 19a, and records and holds programs of other applications such as an operating system (OS) and an object detection program, and various data.
  • OS operating system
  • object detection program object detection program
  • the sensor control communication circuit 19g is connected to the axial light projecting unit X15 and the axial light receiving unit X17 of the object detection sensor unit X11, and transmits and receives information between them.
  • the operation control communication circuit 19h is connected to an object whose operation is to be controlled based on detection of the presence of an object by the object detection sensor unit X11, and transmits and receives information between the two.
  • FIG. 32 shows a state in which the object detection device X10 is arranged on the outer surface of an industrial robot as an example of use.
  • the industrial robot RBT is a robot having three movable axes.
  • the industrial robot RBT has arms AM11 to AM15.
  • a pair of object detection sensor units X11 of the object detection device X10 (see FIG. 28) is attached along the outer peripheral surfaces of the arms AM1 and AM3. Note that the detection light emitted by the axial light projecting portion X15 of the one object detection sensor unit X11 is received by the axial light receiving portion X17 of the other object detection sensor unit X11.
  • the mounting position of X11 has been adjusted.
  • the pair of object detection sensor units X11 is connected to the control unit X19 (see FIG.
  • control unit X19 is connected to a power source (not shown) for operating the arms AM11 to AM15 of the industrial robot RBT.
  • a power source not shown
  • the positions of the axial light projecting unit X15 and the axial light receiving unit X17 can be adjusted by adjusting the position of the hinge 133.
  • the object detection sensor unit X11 can be easily attached to the surface of the installation target, a safety system that stops the robot urgently when an object such as a person is detected near the surface of the industrial robot can be easily constructed. . That is, the safety of the installation object, for example, the industrial robot can be easily established.
  • the plurality of axial light projecting portions X15 and the plurality of axial light receiving portions X17 can be integrally mounted, they can be easily handled, such as being carried around.
  • the object detection sensor unit X11 can be freely attached regardless of the shape of the object to be attached.
  • the paired object detection sensor units X11 are arranged to face each other at a predetermined interval, and the detection light emitted by one of the object detection sensor units X11 is transmitted to the other object. An object was detected based on whether or not the detection sensor unit X11 received light.
  • the object detection device X20 according to the present embodiment detects an object based on whether or not the object detection device X21 itself receives the detection light emitted by the object detection sensor unit X21.
  • the same components as those of the seventh embodiment are denoted by the same reference numerals, and the detailed description is omitted.
  • the configuration of the object detection device X20 will be described with reference to FIG.
  • the object detection device X20 has an object detection sensor unit X21, a control unit X19, and a reflection unit X200.
  • the object detection sensor unit X21 detects the object by reflecting the detection light projected by the reflection unit X200 on the reflection unit X200 and determining whether to receive the detection light reflected on the reflection unit X200.
  • FIG. 34 shows the appearance of the object detection sensor unit X21.
  • the object detection sensor unit X21 has a housing portion X23, an axial light projecting portion X15 (see FIG. 35), and an axial light receiving portion X17 (see FIG. 35).
  • An axial light projecting part X15 and an axial light receiving part X17 are arranged inside the housing part X23.
  • the housing part X23 has a thin hollow cylindrical shape.
  • the housing unit X23 has a first housing unit 231, a second housing unit 232, and a hinge unit 133.
  • the first housing part 231 and the second housing part 232 rotate around the hinge 133 in the directions of arrows A71 and A72, respectively.
  • the first housing portion 231 and the second housing portion 232 each have a hollow semi-cylindrical shape obtained by dividing a hollow cylindrical shape into two.
  • the first housing portion 231 and the second housing portion 232 are configured to engage with each other at an end different from the hinge portion 133 and to be integrated.
  • the first housing part 231 has an outer peripheral part 131a, an end part 231b for forming light emitting and receiving light, an end part 131c, and an inner peripheral part 131d.
  • the light emitting and receiving opening forming end 231b, the end 131c, and the inner peripheral portion 131d are integrally formed.
  • the first housing portion 231 is formed by fitting the outer peripheral portion 131a to the integrally formed light emitting and receiving opening forming end portion 231b, the end portion 131c, and the inner peripheral portion 131d. .
  • the light emitting and receiving opening forming end 231b is formed as a ring-shaped lid that closes one end surface of a hollow cylindrical shape.
  • the projection / reception opening forming end 231b modulates a direction intersecting the normal direction of the surface of the installation target. It has an end face P231b in the line direction N13.
  • the light emitting / receiving opening forming end portion 231b has a plurality of light emitting openings R231a and a plurality of light receiving openings R231b.
  • One light emitting opening R231a and one light receiving opening R231b form a pair and are formed adjacent to each other.
  • the pair of light-emitting openings R231a and light-receiving openings R231b are formed at predetermined intervals. The same applies to the second housing part 232.
  • the object detection sensor unit X21 can be easily attached to an attachment target, for example, an arm of an industrial robot.
  • FIG. 35 shows the internal structure of the object detection sensor unit X21.
  • FIG. 35 shows a state where the outer peripheral portions 131a and 232 (not shown) a of the housing portion X23 have been removed from the object detection sensor unit X21 shown in FIG.
  • the axial light projecting unit X15 emits predetermined detection light, for example, near infrared light.
  • the axial light projecting unit X15 emits near infrared rays using, for example, a near infrared LED (Light Emitting Diode) or the like.
  • the axial light projecting unit X15 projects the detection light in a predetermined range using a predetermined light projecting lens or the like.
  • the axial light receiving unit X17 receives the detection light emitted from the axial light emitting unit X15.
  • the axial light receiving unit X17 receives the detection light using, for example, a phototransistor, a photodiode, a light receiving element with a built-in amplifier circuit, or the like.
  • a photodiode When a photodiode is used, an amplifier circuit and a filter circuit may be provided.
  • the axial light projecting part X15 and the axial light receiving part X17 are alternately arranged inside the housing part X13. Further, the axial light projecting portion X15 has a light projecting opening R231a, so that the detection light to be projected can be projected from the light projecting openings R231a, R232a of the housing portion X23 toward the outside of the housing portion X23. It is arranged in accordance with the position of R232a. That is, the axial light projecting unit X15 emits the detection light along the axial direction of the housing unit X23. The axial light projecting unit X15 acquires the light projecting control information indicating the light projecting timing from the control unit X19, and appropriately emits the detection light.
  • the axial light receiving portion X17 is arranged in accordance with the positions of the light receiving openings R231b and R232b so that the reflected light of the emitted detection light can be received through the light receiving openings R231b and R232b of the housing portion 23. . That is, the axial light receiving portion X17 is projected from the paired axial light projecting portions X15 along the axial direction of the housing portion X23, is reflected by the reflecting portion X200, and extends along the axial direction of the housing portion X23. The reflected detection light is received.
  • the axial direction light receiving unit X17 transmits information as to whether or not the detection light has been received to the control unit X19 as detection information.
  • the axial light receiving unit X17 acquires light receiving control information indicating light receiving timing at which the pair of axial light projecting units X15 can receive the detection light emitted, and appropriately receives the detection light.
  • control unit X19 receives the detection information from the object detection sensor unit X21.
  • the control unit X19 determines whether or not an object exists in the detection area based on the received detection information.
  • control unit X19 sequentially transmits light emission control information for starting light emission to each axial light projection unit X15.
  • control unit X19 transmits the light reception control information for starting light reception to the axial light reception unit X17 that is paired with the axial light transmission unit X15 that transmitted the light projection control information, to the axial light projection unit that forms a pair.
  • X15 is transmitted so that the reflected light of the detection light projected can be received.
  • the control unit X19 determines that there is any object when the axial light receiving unit X17 does not receive the detection light, that is, when the axial light receiving unit X17 does not receive the reflected light of the detection light emitted from the axial light emitting unit X15. to decide.
  • the reflection unit X200 has the same configuration as the housing unit X23 of the object detection sensor unit X21. However, the reflecting portion X200 does not have the light emitting openings R231a, R232a and the light receiving openings R231b, R232b at the light emitting / receiving opening forming end portions 231b, 232b, and has the same configuration as the end portions 131c, 132c. I have.
  • the reflection section X200 does not have internal circuits such as the axial light projecting section X15 and the axial light receiving section X17 inside.
  • the detection light emitted from the object detection sensor unit X21 and the reflection unit X200 by the axial light projecting unit X15 of the object detection sensor unit X21 is reflected by the reflection unit X200, and the reflection detection light is reflected.
  • an object detection sensor unit X21 by installing the object detection sensor unit X21 on an arm of an industrial robot, an object can be detected in a region along the arm. That is, an object in an area closer to the arm can be detected.
  • FIG. 36 shows a state where the object detection device X20 is arranged on the outer surface of the industrial robot RBT as an example of use.
  • the object detection sensor unit X21 of the object detection device X20 (see FIG. 28) and the reflection unit X200 are attached along the outer peripheral surfaces of the arms AM11 and AM13.
  • the attachment positions of the detection light beams emitted by the axial light projecting unit 15 of the object detection sensor unit X21 are adjusted such that the detection light beams are reflected by the reflection unit X200.
  • the object detection sensor unit X21 is connected to the control unit X19 (see FIG. 33). Further, the control unit X19 is connected to a power source (not shown) for operating the arms AM11 to AM15 of the industrial robot RBT.
  • the object detection sensor unit X21 can be easily attached to the surface of the installation target, a safety system for urgently stopping the robot when an object such as a person is detected near the industrial robot can be easily constructed. That is, the safety of the installation object, for example, the industrial robot can be easily established.
  • the plurality of axial light projecting portions X15 and the plurality of axial light receiving portions X17 can be integrally mounted, they can be easily handled, such as being carried around.
  • the object detection sensor unit X21 can be freely attached regardless of the shape of the object to be attached.
  • the object detection sensor unit X21 in the use range assumed in advance, the positions of the detection light emission and reception of the detection light in the axial light projecting portion X15 and the axial light receiving portion X17 are adjusted. Since adjustment is necessary, the object detection sensor unit X21 can be more easily attached to the installation target.
  • the object detection device X20 In the object detection device X20 according to the eighth embodiment, the object is detected along the axial direction of the object detection sensor unit X21.
  • the object detection device X30 according to the present embodiment detects an object not only in the axial direction but also in the radial direction from the axis.
  • the same components as those in the seventh and eighth embodiments are denoted by the same reference numerals, and the detailed description is omitted.
  • the configuration of the object detection device X30 is the same as that of the eighth embodiment (see FIG. 33).
  • the object detection device X30 includes an object detection sensor unit X31 instead of the object detection sensor unit X21, a control unit X19, and a reflection unit X200.
  • the object detection sensor unit X31 reflects the detection light emitted by the reflection unit X200 on the reflection unit X200, and determines whether or not to receive the detection light reflected on the reflection unit X200.
  • the object is detected in the emission direction with respect to the axis by judging whether or not to receive the detection light projected by itself.
  • FIG. 37 shows the appearance of the object detection sensor unit X31.
  • the object detection sensor unit X31 includes a housing part X33, an axial light projecting part X15 (see FIG. 38), an axial light receiving part X17 (see FIG. 38), a radial light projecting part X35 (see FIG. 38), and radiation. It has a direction light receiving portion X37 (see FIG. 38). Inside the housing part X33, an axial light projecting part X15, an axial light receiving part X17, a radial light projecting part X35, and a radial light receiving part X37 are arranged.
  • the housing part X33 has a thin hollow cylindrical shape.
  • the housing unit X33 has a first housing unit 331, a second housing unit 332, and a hinge unit 133.
  • the first housing unit 331 and the second housing unit 332 rotate around the hinge 133 in the directions of the arrow A101 and the arrow A102, respectively.
  • the first housing part 331 and the second housing part 332 each have a hollow semi-cylindrical shape obtained by dividing a hollow cylindrical shape into two.
  • the first housing part 331 and the second housing part 332 are configured to engage with each other at an end different from the hinge part 133 and to be integrated.
  • the first housing part 331 has an outer peripheral part 331a, a light emitting and receiving opening forming end part 231b, an end part 131c, and an inner peripheral part 131d.
  • the first housing portion 331 is formed by fitting the outer peripheral portion 331a to the integrally formed light emitting / receiving opening forming end portion 231b, the end portion 131c, and the inner peripheral portion 131d.
  • the outer peripheral portion 331a is formed as a thin cylindrical shape corresponding to the outer peripheral surface of the hollow cylindrical shape.
  • the outer peripheral portion 331a has a plurality of radial projection openings R331a and a plurality of radial receiving openings R331b.
  • One radiation direction light emitting opening R331a and one radiation direction light receiving opening R331b form a pair and are formed adjacent to each other.
  • a pair of radiation-direction light-projecting openings R331a and radiation-direction light-receiving openings R331b are formed at predetermined intervals. The above is the same for the second housing part 332.
  • FIG. 38 shows the internal structure of the object detection sensor unit X31.
  • FIG. 38 shows a state where the outer peripheral portions 331a and 332a (not shown) of the housing portion X33 have been removed from the object detection sensor unit X31 shown in FIG.
  • the radiation direction light projecting unit X35 emits predetermined detection light, for example, near infrared light, similarly to the axial direction light projecting unit X15.
  • the axial light projecting unit X15 emits near infrared rays using, for example, a near infrared LED (Light Emitting Diode) or the like. Note that the radiation direction light projecting unit X35 projects the detection light in a predetermined range using a predetermined light projection lens or the like.
  • the radiation direction light receiving portion X37 receives the reflected light of the detection light projected from the radiation direction light projecting portion X35, similarly to the radiation direction light receiving portion X17.
  • the radiation direction light receiving portion X37 receives the detection light using, for example, a phototransistor, a photodiode, a light receiving element with a built-in amplifier circuit, or the like. When a photodiode is used, an amplifier circuit and a filter circuit may be provided.
  • a pair of the radiation direction light projecting portion X35 and the radiation direction light receiving portion X37 are arranged inside the housing portion X33 at a predetermined interval. Further, the radiation direction light projecting portion X35 is configured so that the detection light to be projected can be projected outward from the radiation direction light emitting openings R331a and R332a of the housing portion X33 in the radiation direction with respect to the axis of the housing portion X33. , Are arranged in accordance with the positions of the radiation projection openings R331a and R332a. That is, the radiation direction light projecting unit X35 projects the detection light in the radiation direction with respect to the axis of the housing unit X33. Note that the radiation direction light projecting unit X35 acquires light projecting control information indicating the light projecting timing from the control unit X19, and appropriately emits the detection light.
  • the radiation direction light receiving portion X37 is provided with a radiation direction light receiving opening so that the reflected light of the detection light projected from the radiation direction light projecting portion X35 can be received through the radiation direction light receiving openings R331b and R332b of the housing portion X33. It is arranged in accordance with the positions of R331b and R332b. In other words, the radiation direction light receiving portion X37 is projected from the pair of radiation direction light projecting portions X35 in the radiation direction with respect to the axis of the housing portion X33, and is reflected by an object along the radiation direction with respect to the axis of the housing portion X33. The detected light is received.
  • the radiation direction light receiving unit X37 transmits information on whether or not the detection light has been received to the control unit X19 as detection information. Further, the radiation direction light receiving unit X37 acquires light reception control information indicating light reception timing at which the pair of radiation direction light projection units X35 can receive the detection light, and appropriately receives the detection light.
  • the control unit X19 of the object detection device X30 receives the detection information from the object detection sensor unit X31. Based on the received detection information, the control unit X19 determines whether an object is present in a detection area along the axis of the object detection sensor unit X31, and determines whether the object is in a detection area in a radial direction with respect to the axis of the object detection sensor unit X31. It is determined whether it exists. In addition, the control unit X19 sequentially transmits light emission control information for starting light emission to each of the axial light projection units X15 and the radiation direction light projection units X35.
  • control unit X19 transmits the light reception control information for starting light reception to the axial light reception unit X17 that is paired with the axial light transmission unit X15 that transmitted the light projection control information, to the axial light projection unit that forms a pair.
  • X15 is transmitted so that the reflected light of the detection light projected can be received.
  • the control unit X19 closes the mounting object. It is determined that some object exists.
  • the control unit X19 determines that an object exists in the radiation direction. I judge it.
  • FIG. 44 shows a state where the object detection device 100 is installed with the industrial robot RBT as an installation target.
  • the object detection device 100 is installed on a predetermined installation target, and detects whether or not there is an object in the surroundings without erroneously detecting a detection target that does not need to be detected, such as the installation target. .
  • the object detection device 100 includes an object detection sensor unit 110, a control unit 170, and a connection harness 190.
  • the object detection sensor unit 110 is attached to an arm of the industrial robot RBT.
  • the object detection sensor unit 110 is connected to the control unit 170 via a connection harness.
  • the controller 170 controls the operation of the object detection sensor unit 110 and controls the operation of the industrial robot RBT, which is the installation target, based on the detection information acquired from the object detection sensor unit 110.
  • FIG. 45 is an external perspective view of the object detection sensor unit 110.
  • FIG. FIG. 46 shows a state in which a part has been removed from the object detection sensor unit 110 shown in FIG.
  • FIG. 47 shows a state in which components arranged in the internal space of the housing 119 (described later) have been removed from the object detection sensor unit 110 shown in FIG.
  • the object detection sensor unit 110 includes one first object detection sensor unit 111, a plurality of second object detection sensor units 113, an inter-sensor connection line 117, and a housing unit 119.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 are cascade-connected by an inter-sensor connection line 117, and are arranged inside the housing unit 119.
  • the configuration of the first object detection sensor unit 111 will be described with reference to FIG.
  • the object detection sensor section 111 includes a light projecting element 111a, a light projecting lens 111b, a light receiving element 111c, a sensor communication interface 111d, a sensor control section 111e, a control section communication interface 111f, and an acceleration sensor 111g.
  • the light emitting element 111a emits predetermined detection light, for example, near infrared light.
  • the light projecting lens 111b diffuses the detection light emitted by the light projecting element 111a to a predetermined range (detection region R111).
  • the light projecting lens 111b by appropriately selecting the shape and characteristics of the lens, it is possible to prevent an erroneous detection of an arrangement target such as an industrial robot on which the object detection sensor unit 110 is to be disposed. May be adjusted.
  • the light projecting element 111a for example, a near-infrared LED (Light Emitting Diode) or the like can be used.
  • the light receiving element 111c receives the reflected light of the detection light emitted by the light emitting element 111a by the object.
  • the light receiving element 111c for example, a phototransistor, a photodiode, a light receiving element with a built-in amplifier circuit, or the like can be used.
  • an amplifier circuit and a filter circuit may be arranged together with the light receiving element 111c.
  • the sensor communication interface 111d is connected to the sensor communication interface 113d of the adjacent second object detection sensor unit 113 so that the first object detection sensor unit 111 and the second object detection sensor unit 113 can communicate with each other.
  • the sensor control unit 111e acquires sensor control information from the control unit 170, controls object detection by the light emitting element 111a and the light receiving element 111c, and transmits the object detection information to the control unit 170. In addition, the sensor control unit 111e transmits movement information acquired from the acceleration sensor unit 111g to the control unit.
  • the control unit communication interface 111f is connected to a sensor control communication circuit 170g (see FIG. 50) of the control unit 170, and the control unit 170 and the first object detection sensor unit 111, that is, the control unit 170 and the object detection sensor unit 110 The communication with the unit 170 is enabled.
  • the control unit communication interface 111f of the first object detection sensor unit 111 of each object detection sensor unit 110 is directly connected to the control unit 170 in parallel. Therefore, the plurality of object detection sensor units 110 are connected to the control unit 170 in parallel, respectively.
  • the acceleration sensor unit 111g has a three-axis acceleration sensor.
  • the three-axis acceleration sensor measures acceleration in a direction along each axis in a predetermined coordinate space (X axis, Y axis, Z axis), and generates movement information. By integrating the measured acceleration twice, the displacement along each axis can be calculated.
  • the configuration of the second object detection sensor unit 113 will be described with reference to FIG.
  • the object detection sensor unit 113 has a light projecting element 113a, a light projecting lens 113b, a light receiving element 113c, a sensor communication interface 113d, and a sensor control unit 113e.
  • the light projecting element 113a, the light projecting lens 113b, the light receiving element 113c, the sensor communication interface 113d, and the sensor control unit 113e are provided with the light projecting element 111a, the light projecting lens 111b, and the light receiving element of the first object detection sensor unit 111. Since they are the same as the communication interface 111c, the sensor communication interface 111d, and the sensor control unit 111e, detailed description is omitted.
  • connection line 117 between sensors As shown in FIG. 46, the inter-sensor connection line 117 is provided between the adjacent first object detection sensor unit 111 and the second object detection sensor unit 113 and between two adjacent second object detection sensor units 113. Connect. The inter-sensor connection line 117 is connected to the sensor communication interface 111d of the first object detection sensor unit 111 and the sensor communication interface 113d of the second object detection sensor unit 113, and the adjacent first object detection sensor unit 111, The second object detection sensor unit 113 is electrically and physically connected.
  • the housing 119 has a hollow cylindrical shape.
  • the housing 119 includes a first housing 1191, a second housing 1192, and a hinge 1193.
  • the object detection sensor unit 110 is mounted by rotating the first housing 1191 and the second housing 1192 in the directions of the arrow R31 and the arrow R32 around the hinge 1193, respectively, and opening one end. Attach to the object.
  • the first housing part 1191 and the second housing part 1192 are each formed by dividing the hollow cylindrical shape along a plane including the long axis J119 of the hollow cylindrical shape and the rotation axis J1193 of the hinge part 1193, respectively. It has a cylindrical shape.
  • the first housing 1191 and the second housing 1192 having a semi-hollow cylindrical shape are engaged with each other at an end different from the hinge 1193 to form a hollow cylindrical shape.
  • the first housing 1191 is opposed to the outer periphery 1191a, the end 1191b along the end surface of the hollow cylinder, the inner periphery 1191c along the inner periphery of the hollow cylinder, and the end 1191b. It has an end 1191d. Note that the outer peripheral portion 1191a, the end portion 1191b, and the inner peripheral portion 1191c are integrally formed.
  • the first housing 1191 is formed by fitting the end 1191d to the outer periphery 1191a, the end 1191b, and the inner periphery 1191c which are integrally formed.
  • the outer peripheral portion 1191a does not hinder the projection of the detection light of the light projection element 113a of the second object detection sensor unit 113, and does not hinder the reception of the reflected light of the light receiving element 113c of the second object detection sensor unit 113.
  • the light emitting / receiving opening 1191a1 having an appropriate size and shape is provided at a position corresponding to the light emitting element 113a and the light receiving element 113c of the second object detection sensor unit 113.
  • the above also applies to the second housing 1192.
  • the outer peripheral portion 1192a (not shown) of the second housing 1192 has a first object detection sensor in addition to a position corresponding to the light projecting element 113a and the light receiving element 113c of the second object detection sensor 113.
  • the portion 111 has a light emitting / receiving opening 1192a1 (not shown) at a position corresponding to the light emitting element 111a and the light receiving element 111c.
  • the first housing 1191 and the second housing 1192 are opened right and left around the hinge 1193, and are disposed along a predetermined mounting target, for example, the outer periphery of the arm of the industrial robot.
  • the object detection sensor unit 110 can be easily attached simply by closing the first housing 1191 and the second housing 1192.
  • Control unit 170 The hardware configuration of the control unit 170 will be described with reference to FIG.
  • the control unit 170 has a CPU 170a, a memory 170b, a sensor control communication circuit 170g, and an operation control communication circuit 170h.
  • the CPU 170a performs processing based on an operating system (OS), a detection area adjustment program, and other applications recorded in the memory 170b.
  • the memory 170b provides a work area for the CPU 170a, and records and holds programs of other applications such as an operating system (OS), a detection area adjustment program, and various data.
  • OS operating system
  • detection area adjustment program and various data.
  • the sensor control communication circuit 170g is connected to the control unit communication interface 111f (see FIG. 48) disposed in the first object detection sensor unit 111 of the object detection sensor unit 110 via a connection harness 190 (see FIG. 44). , And transmit and receive information between them.
  • the sensor control communication circuit 170g is connected directly to each object detection sensor unit 110, that is, in parallel.
  • the operation control communication circuit 170h is connected to a control target that controls the operation, for example, the industrial robot RBT, based on the detection of the presence of the object by the object detection sensor unit 110, and transmits and receives information between the two.
  • connection harness 190 As illustrated in FIG. 44, the connection harness 190 connects the control unit communication interface 111 f of the first object detection sensor unit 111 of each object detection sensor unit 110 and the sensor control communication circuit 170 g of the control unit 170, Each object detection sensor unit 110 and the control unit 170 are directly connected.
  • Detection area adjustment processing in second control section 170 The detection area adjustment processing performed by the CPU 170a of the control section 170 based on the detection area adjustment program will be described by taking an example in which the object detection device 100 is arranged on the outer surface of an industrial robot. .
  • An industrial robot RBT as shown in FIG. 51 is set as an installation object on which the object detection device 100 is arranged.
  • the industrial robot RBT is a robot having three rotation axes.
  • the industrial robot RBT has arms AM1 to AM7, a base B1, and a working end H1.
  • the arm AM1 is disposed on the base B1, and rotates around a rotation axis RJ1 set in the longitudinal direction of the arm AM1.
  • the arm AM3 is connected to the adjacent arm AM1, and rotates around the rotation axis RJ3 set at one end with respect to the arm AM1.
  • the arm AM5 is connected to the adjacent arm AM3, and rotates about the rotation axis RJ5 set at one end with respect to the arm AM3.
  • the arm AM7 is connected to the adjacent arm AM5, and rotates around the rotation axis RJ7 set at one end with respect to the arm AM5.
  • the object detection sensor unit 110 of the object detection device 100 is disposed on each outer peripheral surface of the arms AM3, AM5, and AM7.
  • the six object detection sensor units 110 arranged on the arms AM3, AM5, and AM7 are connected to the control unit 170. Further, the control section 170 is connected to a power mechanism (not shown) for operating the arms AM1 to AM7 of the industrial robot RBT.
  • the control unit 170 controls the operation of the arms AM1 to AM7 by controlling the operation of the power mechanism.
  • Each object detection sensor unit 110 is arranged along the outer periphery of each arm. Since the object detection sensor unit 110 can be easily arranged on the outer surface of the device to be installed, it is possible to easily construct a safety system that stops the robot when an object such as a person is detected around the industrial robot. That is, the safety of the installation target device, for example, the industrial robot can be easily configured.
  • Initial Setting Information Before executing the detection area adjustment processing, a predetermined initial setting value is set. First, an initial state of the industrial robot RBT to which the object detection sensor unit 110 is attached is set. Here, it is assumed that the industrial robot RBT has, for example, a base B1, arms AM1 to AM7, and a working end H1, as shown in FIG.
  • the base B1 supports the industrial robot RBT.
  • the base B1 has a flat upper surface, and the arm AM1 is arranged so as to protrude upward from the upper surface.
  • Each of the arms AM1 to AM7 has a columnar shape along the long axis LJ1 to LJ7 (see FIG. 55).
  • the long axes LJ1 to LJ7 of each arm exist on the Z axis in FIG.
  • an arm AM3 is connected to the arm AM1 so as to be rotatable around a rotation axis RJ3.
  • the intersection of the long axis LJ3 of the arm AM3 and the rotation axis RJ3 is defined as a rotation center C3.
  • the working end H1 is connected to the arm AM7 at an end different from the end connected to the arm AM5.
  • a coordinate axis having the Z-axis in the vertical direction and the X-axis and the Y-axis in the bottom with the center of the bottom surface of the arm AM1 positioned at the lowest position as the origin O is set.
  • the arms AM1 to AM7 are set to be vertically linear, that is, the long axes LJ1 to LJ7 of the respective arms AM1 to AM7 are linearly arranged along the Z axis.
  • the object detection sensor unit 110 attaches to a predetermined position on the industrial robot RBT.
  • the industrial robot RBT is provided with two object detection sensor units 110 attached to the arms AM3 to AM7, respectively.
  • the first object detection sensor units 111 of the sensor unit 110 are also referred to as first object detection sensor units 111_1, 111_2,.
  • the initial positions (P111_1 (0), P111_2 (0),%) Of the first object detection sensor unit 111 of each object detection sensor unit 110 on the set coordinate axes are initialized.
  • the information is stored in the memory 170b as a part of the information.
  • the CPU 170a sends object detection start information to the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110.
  • the data is transmitted (S901).
  • the object detection start information will be described later.
  • the operation of the first object detection sensor unit 111 and the second object detection sensor unit 113 of the object detection sensor unit 110 that acquires the object detection start information will be described later.
  • the CPU 170a acquires sensor information from the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110 (S903).
  • the sensor information will be described later.
  • the CPU 170a determines that the sensor information has been acquired from the first object detection sensor unit 111 and the second object detection sensor unit 113 of all the object detection sensor units 110 (S905), the first object detection having the movement information is performed. Sensor information related to the sensor unit 111 is extracted (S907), and a shape estimation process for determining the shape of the industrial robot RBT at that time is performed (S909).
  • the shape estimation processing will be described with reference to the flowchart shown in FIG. 53 and FIG. FIG. 55 shows a state after the operation of the industrial robot RBT for a predetermined time.
  • a plurality of constituent elements are specified by adding a suffix “_n (n is a natural number)” in order from the lower one in the initial state.
  • the first object detection sensor unit 111 located second from the bottom is referred to as a first object detection sensor unit 111_2.
  • it is described as a first object detection sensor unit 111_n.
  • the CPU 170a calculates a displacement (m111_n (x): see FIG. 55) from the previous position for each of the first object detection sensor units 111_n from the acquired movement information (S1001).
  • the CPU 170a adds the calculated displacement (m111_n (x)) to the previous position (P111_n (x-1): see FIG. 55) for each first object detection sensor unit 111_n, and calculates the current position ( P111_n (x): see FIG. 55) is calculated (S1003).
  • the current position (P111_n (x)) of the first object detection sensor unit 111_n is determined a priori using the position (P111_n (0): FIG. 51) of the first object detection sensor unit 111 in the initial state. Can be calculated.
  • the CPU 170a executes the following processing in order from the lower arm AM1 to the upper arms AM3, AM5, and AM7 in the initial state, sequentially as the target arm.
  • the vector of the one object detection sensor unit 111_n to the current position P111_n (x) starts from the current lower rotation center Cm (x), and the lower rotation center Cm (0) of the target arm in the initial state. From the position P111_ (0) of the first object detection sensor unit 111_n to the position P111_ (0) of the first object detection sensor unit 111_n by rotating the vector about the rotation axis RJm passing through the current lower rotation center Cm to calculate a rotation angle r_n (x). (S1007).
  • the vector from the current lower rotation center C3 (x) to the current position P111_2 (x) of the first object detection sensor unit 111_2 is the current lower rotation center C3 (x).
  • the vector from the lower rotation center C3 (0) of the target arm in the initial state to the position P111_ (0) of the first object detection sensor unit 111_n is represented by the current lower rotation center C3 (x).
  • the rotation angle r_3 (x) that has been rotated and made coincident with each other about the rotation axis RJ3 passing through is calculated. Since the rotation center C3 does not move, the current rotation center position C3 (x) becomes the position C3 (0) of the rotation center C3 in the initial state (see FIG. 51).
  • the CPU 170a uses the calculated rotation angle r_n (x), the CPU 170a moves the long axis LJm of the target arm in the initial state to the current lower rotation center Cm (x) of the target arm, and moves the rotation angle r_n (x ) To calculate the position of the current long axis LJ_n (x) passing through the current lower rotation center Cm (x) (S1009). Then, the CPU 170a calculates the position of the upper rotation center Cm (x) using the rotation center distances (L3, L5, L7 (see FIG. 51)) of the target arm (S1011).
  • the CPU 170a executes the processing of steps S1005 to S1013 for all the arms (S1013).
  • the CPU 170a calculates the current shape of the industrial robot RBT using the calculated radius and the like of each arm (S1015).
  • the CPU 170a executes a detection area adjustment information generation process (S911).
  • the detection area adjustment information generation processing will be described with reference to FIG.
  • the CPU 170a determines, for each object detection sensor unit 110, a second object detection sensor unit other than the first object detection sensor unit 111 from the position of the first object detection sensor unit 111 of each arm and the position of the long axis of each arm.
  • the position of 113 is calculated (S1101).
  • the CPU 170a determines that the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110 are based on the calculated position of the second object detection sensor unit 113 and the calculated shape of the industrial robot RBT.
  • the detection area to be formed is calculated (S1103). As shown in FIG.
  • the detection area is radial from the center of the object detection sensor unit 110 to the positions of the first object detection sensor unit 111 and the second object detection sensor unit 113, that is, the industrial robot RBT. Formed in a direction perpendicular to the surface of the substrate.
  • the CPU 170a calculates whether or not the calculated detection area interferes with the shape of the industrial robot RBT calculated in the shape estimation processing (see FIG. 53) (S1105). For example, in the industrial robot RBT having a shape as shown in FIG. 56, in the arm AM3 and the arm AM7 located at positions facing each other, some of the object detection sensor units 110_2 and 110_5 attached to the respective arms are partially removed. It is determined that the detection area formed by the first object detection sensor unit 111 and / or the second object detection sensor unit 113 interferes with the other arm.
  • FIG. 57 shows the industrial robot RBT shown in FIG. 56 as viewed from the right side in FIG.
  • the arm AM3 and the arm AM7 which are located opposite to each other, in the arm AM3, the first object detection sensor unit 111 located on the surface F3 on the opposite side and / or the second object detection. It is determined that the detection area formed by the sensor unit 113 interferes with the other arm AM7. The same determination is made for the arm AM7. The same judgment is made for the other arms.
  • the CPU 170a when determining that the two interfere, the CPU 170a generates detection area adjustment information for the first object detection sensor unit 111 or the second object detection sensor unit 113 that interferes (S1107).
  • the detection area adjustment information is information for adjusting a light reception standby period for receiving reflected light in each of the light receiving elements of the first object detection sensor unit 111 and the second object detection sensor unit 113.
  • the detection area adjustment information is information for adjusting a light reception standby period for receiving reflected light in each of the light receiving elements of the first object detection sensor unit 111 and the second object detection sensor unit 113.
  • the CPU 170a when the detection area adjustment information generation processing ends, the CPU 170a generates object detection start information for starting the next object detection at a predetermined timing (S913).
  • the object detection start information is information for causing the first object detection sensor unit 111 and the second object detection sensor unit 113 included in the object detection sensor unit 110 to start object detection.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 that have acquired the object detection start information start object detection using the respective light emitting elements, light receiving elements, and the like.
  • the object detection start information is generated in association with sensor identification information for identifying the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 for which it is determined that the detection area needs to be adjusted are also associated with the detection area adjustment information generated in step S1207.
  • the CPU 170a transmits the generated object detection start information to the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110, and the like. The process is repeated until the operation ends.
  • step S903 the CPU 170a acquires sensor information from the first object detection sensor unit 111 and the second object detection sensor unit 113 of each object detection sensor unit 110, and extracts detection result information from the information. If the detected result information indicates that the object has been detected, a stop signal for stopping the operation of the industrial robot RBT to be attached is transmitted to the industrial robot RBT.
  • the sensor control unit 111e of the first object detection sensor unit 111 of the object detection sensor unit 110 transmits the object detection start information via the control unit communication interface 111f.
  • the sensor control unit 111e determines that the information is the object detection start information for itself, it extracts the detection area adjustment information included in the object detection start information (S1305), and based on the extracted detection area adjustment information, causes the light receiving element 111c to detect the detection light.
  • a light reception standby period which is a period during which reflected light is received, is adjusted (S1307).
  • the sensor control unit 111e emits detection light via the light emitting element 111a (S1309).
  • the sensor control unit 111e monitors whether or not to receive the reflected light via the light receiving element 111c.
  • the sensor control unit 111e When determining that the reflected light has been received (S1311), the sensor control unit 111e generates detection result information indicating that an object has been detected (S1315).
  • the sensor control unit 111e acquires the acceleration measured from the acceleration sensor unit 111g as movement information (S1317).
  • the sensor control unit 111e transmits the generated detection result information and the movement information to the control unit 170 as sensor information together with the sensor identification information for identifying itself (S1319).
  • the sensor control unit 111e determines that a predetermined light reception standby period has elapsed without emitting reflected light after projecting the detection light in step S1309 (S1313), it indicates that no object has been detected.
  • the detection result information shown is generated (S1315).
  • the sensor control unit 111e acquires the acceleration measured from the acceleration sensor unit 111g as movement information (S1317).
  • the sensor control unit 111e transmits the generated detection result information and the movement information to the control unit 170 as sensor information together with the sensor identification information for identifying itself (S1319).
  • the sensor control unit 111e determines that the object detection start information acquired in step S1301 does not correspond to itself, the sensor control unit 111e transmits the acquired object detection start information to the adjacent second object via the sensor communication interface 113d. The information is transmitted to the detection sensor unit 113 (S1321).
  • the sensor control unit 111e acquires the detection result information from the adjacent second object detection sensor unit 113 via the sensor communication interface 113d, it transmits the detection result information to the control unit 170 via the control unit communication interface 111f. .
  • Second Object Detection Sensor Unit 113 As shown in FIG. 57, the sensor control unit 113e of the second object detection sensor unit 113 of the object detection sensor unit 110 acquires the object detection start information via the sensor communication interface 113d. Then (S1401), it is determined whether or not the acquired object detection start information corresponds to itself (S1403). If the sensor control unit 113e determines that the information is the object detection start information for itself, it extracts the detection area adjustment information included in the object detection start information (S1405), and the light receiving element 113c detects the detection light based on the extracted detection area adjustment information. A light reception standby period, which is a period during which reflected light is received, is adjusted (S1407).
  • the sensor control unit 113e emits the detection light via the light emitting element 113a (S1409).
  • the sensor control unit 113e monitors whether or not to receive the reflected light via the light receiving element 113c.
  • the sensor control unit 113e When determining that the reflected light has been received (S1411), the sensor control unit 113e generates detection result information indicating that an object has been detected (S1415).
  • the sensor control unit 113e transmits the generated detection result information and the sensor identification information for identifying itself to the control unit 170 as sensor information (S1419).
  • the sensor control unit 113e determines that the predetermined light reception standby period has elapsed without emitting the reflected light after projecting the detection light in step S1409 (S1413), it indicates that the object has not been detected.
  • the generated detection result information is generated (S1415).
  • the sensor control unit 113e transmits the generated detection result information to the control unit 170 as sensor information together with sensor identification information for identifying itself (S1419).
  • the sensor control unit 113e determines that the object detection start information acquired in step S1403 does not correspond to itself, the sensor control unit 113e transmits the acquired object detection start information to the adjacent first object via the sensor communication interface 113d.
  • the data is transmitted to the detection sensor unit 111 or the second object detection sensor unit 113 (S1421).
  • the sensor control unit 113e acquires sensor information from the adjacent second object detection sensor unit 113 via the sensor communication interface 113d, the adjacent first object detection sensor via the control unit communication interface 111f. This is transmitted to the unit 111 or the second object detection sensor unit 113.
  • the flexible sensor arrangement member 15 is formed of a rubber plate, but has flexibility and deforms along the surface of the installation target. If it is a thing, it is not limited to an example. For example, it may be a fibrous sheet or a flexible plastic. The same applies to the above-described fourth and fifth embodiments.
  • the sensor arrangement flexible member 15 has a band shape, but may have a rectangular shape or another polygonal shape as long as it has a width and an area where a plurality of object detection sensor units 11 can be arranged. You may. The same applies to the above-described fourth and fifth embodiments.
  • the intermediate flexible member 253 having the adjustable expansion / contraction mechanism 253b is used as the flexible sensor arrangement member 25. It is not limited to the example as long as the length can be adjusted.
  • the belt 253a may be formed of a material having elasticity, for example, a predetermined rubber material without having the elastic mechanism 253b. The same applies to the above-described fourth and fifth embodiments.
  • Sensor arrangement flexible member 35 In the unit flexible member 351 of the third embodiment described above, a plurality of types having different lengths in the connection direction are prepared, and are appropriately selected and connected, so that the object detection sensor unit 13 is provided. May be adjusted. Since the entire length of the sensor arrangement flexible member 35 can be adjusted, it can be easily adapted to an object.
  • the linear detection region R13 is formed using a cylindrical lens as the light projecting lens 13b, but a desired detection region can be formed. Any kind of light projecting lens 13b may be used.
  • a circular detection region R143 may be formed using a light projecting lens 143b that is a circular convex lens.
  • the light projection direction of the light projection lens 143b may be adjustable.
  • the light projecting element 13a and the light projecting lens 143b of the object detection sensor unit 143 may be rotated up, down, left, and right in the direction of arrow a6.
  • the detection regions R143 may be formed in a plurality of directions as shown in FIG. 11A.
  • the object detection device 10 also uses the object detection sensor unit 153 that can rotate the light projecting element 13a and the light projecting lens 13b (see FIG. 2).
  • the detection region R153 may be formed.
  • the object detection device 20 in the second embodiment and the object detection device 30 in the third embodiment The above also applies to the above-described fourth and fifth embodiments.
  • the object detection sensor unit 13 is arranged linearly, and the detection region R11 is formed on the sensor arrangement flexible member 15.
  • the arrangement is not limited to the example as long as they can be arranged along a matrix or other regularity, or can be arranged randomly without regularity to form a desired detection range. The same applies to the above-described fourth and fifth embodiments.
  • the arrangement of the object detection sensor unit 13 of the object detection device 10 according to the first embodiment is not fixed, and may be changed as appropriate.
  • a plurality of mounting recesses are formed in the sensor arrangement flexible member 15, a desired mounting recess is selected, and the mounting protrusion of the object detection sensor unit 13 is engaged, and the object detection sensor unit 13 is arranged. You may make it.
  • a rail may be arranged on the sensor arrangement flexible member 15 and engaged with a desired position of the rail of the object detection sensor unit 13 so that the object detection sensor unit 13 is arranged. The same applies to the second and third embodiments.
  • connection harness 19 may be formed integrally, may have an expansion / contraction mechanism, and may use an extendable connection harness (intermediate connection harness) as an intermediate flexible member. The same applies to the above-described fourth and fifth embodiments.
  • the object detection sensor unit 13 detects the presence of an object, but detects the distance and direction to the object. It may be something. By detecting the distance by the object detection sensor unit 13, it is possible to detect an object or a person who has intruded within an arbitrary set distance from an arrangement target on which the object detection sensor unit 13 is arranged. Thus, the operation of the placement target can be controlled based on the distance from the placement target. The same applies to the above-described fourth and fifth embodiments.
  • the object detection sensor unit 13 detects the presence of the object using the predetermined detection light. However, if the object detection sensor unit 13 can detect the presence of the object, it may use other detection waves such as infrared rays, sound waves, and the like. You may. The same applies to the above-described fourth and fifth embodiments.
  • Configuration of the control unit 17 In the first to third embodiments, the operation of the control unit 17 is realized using the CPU 17a. It is not limited to one. For example, a dedicated logic circuit may be designed and used. The same applies to the above-described fourth and fifth embodiments.
  • each object detection sensor unit 13 is connected in parallel to the control unit 17, but the object detection sensor units 13 are cascaded. Alternatively, the object detection sensor unit 13 at the end may be connected to the control unit 17.
  • each of the object detection sensor units 11 and the control unit 17 are connected by the connection harness 19, but may be connected wirelessly.
  • the object detection sensor unit 13 and the control unit 17 are connected using the connection harness 19, but the plurality of object detection sensor units 13 are connected to one intermediate interface unit, and the intermediate interface unit is connected. May be connected to the control unit 17, that is, the object detection sensor unit 13 and the control unit 17 may be connected via the intermediate interface unit.
  • the object detection device 20 of the second embodiment and the object detection device 30 of the third embodiment The same applies to the above-described fourth and fifth embodiments.
  • an object may be detected by using an optical filter and using only predetermined light. The same applies to the above-described fourth and fifth embodiments.
  • Sensor connection information In the first embodiment, the sensor connection information is stored and held in the memory in advance, but the sensor connection information is acquired at the stage of using the object detection device 10. Is also good. For example, when the control unit 17 is activated, the control unit 17 transmits and receives information to and from each of the object detection devices 10 via the sensor communication circuit 13d, determines whether or not the object detection device 10 is connected, and determines whether or not the sensor connection information is present. May be generated. Further, the connection position (for example, connection port) of the object detection device 10 in the sensor communication circuit 13d may be determined. The same applies to the object detection device 20 of the second embodiment and the object detection device 30 of the third embodiment. The same applies to the above-described fourth and fifth embodiments.
  • the detection light emitted by the light projecting element 13a is reflected inside the unit arrangement section 433 and received by the light receiving element 13c.
  • a partition for separating detection light emitted from the light emitting element 13a and reflected light received by the light receiving element 13c may be arranged inside the unit arrangement section 433.
  • the inter-sensor connection line protection section 59 in the fifth embodiment and the inter-sensor connection line protection section 69 in the sixth embodiment receive the detection light and the light receiving element 13c which are emitted from the light projecting element 13a, respectively.
  • a partition for separating reflected light may be provided. The same applies to the inter-sensor connection line protection unit 69 in the sixth embodiment.
  • the inter-sensor connection line protection portion 59 is formed by two of the first housing 591 and the second housing 592. However, it may be formed by three or more housings. The same applies to the inter-sensor connection line protection section 69.
  • a detection status display unit indicating the detection status of the object may be further arranged in the object detection sensor unit 13 in the first embodiment.
  • the detection status display unit for example, an LED and a light emission control circuit of the LED are used. When an object is detected by the object detection sensor unit, an LED is issued.
  • the light emission of the LED may be changed according to the detection state of the object. For example, using a multi-color light-emitting LED and a light-emitting control circuit that controls a light-emitting color, a light is emitted in blue when no object is detected, and according to a distance to the detected object in a state where an object is detected. , Change from yellow to red.
  • the brightness of light emission may be changed according to the distance to the detected object. For example, using a light emission control circuit that controls the current flowing through the LED, the light is not emitted when no object is detected, and the brightness is dark according to the distance to the detected object when the object is detected. To a bright state.
  • each housing portion has a hollow cylindrical shape, but any shape that can be attached to the surface of a predetermined installation target.
  • the shape may be a linear shape or a hollow prism shape.
  • each housing may not be a columnar shape like the arms AM11 to AM13 of the industrial robot RBT.
  • each object detection sensor unit may be attached such that the vertex in the cross section is supported by each inner peripheral portion of each object detection sensor unit.
  • the object detection sensor unit may be attached to the installation object by disposing a predetermined spacer between the installation object and the inner peripheral portion of each object detection sensor unit.
  • Light emitting and receiving opening forming end portions 131b and 132b In the above-described seventh embodiment, the light emitting and receiving opening forming end portions 131b and 132b have the light emitting and receiving opening R131a so that the detecting light can be sent and received.
  • the present invention is not limited to the example as long as it can transmit and receive the detection light.
  • the light emitting and receiving openings R131a instead of forming the light emitting and receiving openings R131a at the light emitting and receiving opening forming end portions 131b and 132b, the light emitting and receiving openings R131a may be formed as a translucent annular shape capable of emitting and receiving the detection light. The same applies to the eighth and ninth embodiments.
  • the axial light projecting portion X15 and the axial light receiving portion X17 are also arranged on the end surfaces P131b, P132b to correspond.
  • the light emitting / receiving opening may be formed. The same applies to the eighth and ninth embodiments.
  • the object detection sensor unit X21 has the reflection unit X200 that reflects the detection light projected from the axial light projection unit X15.
  • the reflection unit X200 may not be used as in the object detection device X40 shown in FIG. In this case, the control unit X19 of the object detection sensor unit X21 determines that the object X is present when the reflected light of the emitted detection light is received.
  • the axial light projection unit X15 can be rotated so that the direction in which the axial light projection unit X15 emits detection light can be adjusted. It may be. The same applies to the axial light receiving section X17.
  • the axial light projecting unit X15 and the axial light receiving unit X17 are alternately arranged in the same object detection sensor unit X11. However, only the axial light projecting portion X15 may be arranged on one of the object detection sensor units X11 forming a pair, and only the axial light receiving portion X17 may be arranged on the other.
  • the radiation direction light projecting unit X35 and the radiation direction light receiving unit X37 are arranged in the object detection sensor unit X21 of the eighth embodiment.
  • a radiation projecting unit X35 and a radiation receiving unit X37 may be arranged in the object detection sensor unit X11 according to the seventh embodiment.
  • the object detection sensor unit X21 detects the presence of the object, but detects the distance and direction to the object. Is also good. Thereby, the operation of the control target can also be controlled based on the distance and the direction to the detection object. The same applies to the ninth embodiment.
  • Detection light In the above-described embodiments 7 to 9, the presence of an object is detected using the predetermined detection light. However, if the presence of the object can be detected, only the infrared light is used. Instead, other detection waves such as sound waves may be used.
  • control unit X19 In the above-described seventh to ninth embodiments, the operation of the control unit X19 is realized by using the CPU 19a. It is not limited to one. For example, a dedicated logic circuit may be designed and used.
  • each object detection sensor unit is connected to the control unit X19 using a predetermined connection line. It may be.
  • an object may be detected by using an optical filter and using only predetermined light.
  • the detection light emitted by the axial light projecting portion X15 is applied to the inside of each housing.
  • the detection light projected from the axial light projecting unit X15 and the reflected light received by the axial light receiving unit X17 are reflected so that the reflected light is not received by the axial light receiving unit X17. You may make it arrange the partition which separates.
  • the housing part X13 is formed by two of the first housing part 131 and the second housing part 132. You may make it form with the above-mentioned housing
  • a detection status display unit indicating the detection status of an object may be further arranged.
  • the detection status display unit for example, an LED and a light emission control circuit of the LED are used. When an object is detected by the object detection sensor unit, an LED is issued.
  • the light emission of the LED may be changed according to the detection state of the object. For example, using a multi-color light-emitting LED and a light-emitting control circuit that controls a light-emitting color, a light is emitted in blue when no object is detected, and according to a distance to the detected object in a state where an object is detected. , Change from yellow to red.
  • the brightness of light emission may be changed according to the distance to the detected object. For example, using a light emission control circuit that controls the current flowing through the LED, the light is not emitted when no object is detected, and the brightness is dark according to the distance to the detected object when the object is detected. To a bright state.
  • the detection state of the object can be easily known.
  • Substrate S In the object detection sensor unit according to the seventh embodiment, the plurality of substrates S are connected by the connection line W in the housing X13. It is not limited to the example as long as the part X17 can be electrically connected. For example, an annular substrate that can be arranged in the housing X13 is formed, the respective axial light projecting portions X15 and the axial light receiving portions X17 are arranged, and electrically connected by wiring formed on the substrate. Good. The same applies to other embodiments.
  • the object detection device X11 As shown in FIG. 40, the object detection device X11 according to the seventh embodiment may be installed so as to be stacked on the installation target.
  • the inner object detection device X11-S is disposed along the surface of the installation target similarly to the object detection device X11 shown in FIG. 28, and the outer object detection device X11-L is located on its inner periphery.
  • the portion 131d (see FIG. 29) is arranged along the outer peripheral portion 131a (see FIG. 29) of the object detection device X11-S.
  • the object detection device X11-S to be paired and the object detection device X11-L to be paired are stacked and arranged, respectively, thereby obtaining the configuration shown in FIG. 41c.
  • a plurality of layers of detection areas such as the detection area of the object detection device X11-S (solid arrow) and the detection area of the object detection device X11-L (dotted arrow) are formed according to the distance from the surface of the installation target. it can. That is, the control operation for the installation target can be changed according to the distance from the surface of the installation target.
  • a warning is issued when an object is detected by the outer object detection device X11-L, and the operation of the installation target can be stopped when an object is detected by the inner object detection device X11-S.
  • the hinges 133-S and 133 shown in FIG. 40 are used so that the hinges 133 (see FIG. 29) do not interfere with the stacking. It may be formed at a position that does not protrude from the outer peripheral portion 131a (see FIG. 29) like -L.
  • the inner object detection device X11-S in FIG. 40 has an axial light projecting unit X15 and an axial light receiving unit X17 like a reflecting unit X200 shown in FIG. It is good also as height adjustment part X500 which does not do. Thereby, as shown in FIG. 42c, the distance of the object detection device X11-L from the surface of the installation target can be freely adjusted.
  • the detection region can be formed so as to be inclined along the surface of the installation object.
  • an object can be detected at a position far from the surface of the installation target object, compared to the side where the object detection device X11-S is installed. Operation control of the installation object, for example, operation can be stopped earlier. The above is the same for the other embodiments.
  • (32) Positioning of Paired Object Detecting Device In the object detecting device X11 according to the seventh embodiment, by aligning the position of the hinge 133, the paired object detecting device X11, specifically, in the axial direction
  • the position of the light projecting unit X15 and the position of the axial direction light receiving unit X17 are aligned, the invention is not limited to the example as long as they can be aligned.
  • a predetermined alignment mark may be arranged on the housing X13.
  • the detection area adjustment information is generated, the generation of the detection area adjustment information is not limited to the example.
  • the detection area adjustment information is also generated in the case where the detection areas of the estimated first object detection sensor unit 111 and the second object detection sensor unit 113 are generated toward the ground. You may.
  • the object detection sensor unit 110_3 of the arm AM5 in the arm AM3 and the arm AM5 positioned toward the ground (see FIG. 60), as shown in FIG. 61, in the object detection sensor unit 110_3 of the arm AM5, for example, It is determined that the detection area formed by the first object detection sensor unit 111 and / or the second object detection sensor unit 113 located within 45 degrees left and right about the generatrix located at the lowest position in the arm interferes with the ground. . The same determination is made for other arms and other object detection sensor units 110.
  • the detection area that interferes with the arm positioned opposite is determined.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 which form the interference detection region, have a detection region of 0 (zero), even if reflected light is received.
  • the detection area of the second object detection sensor unit 113 needs to be adjusted for each of the first object detection sensor unit 111 and the second object detection sensor unit 113 according to the estimated shape of the mounting target.
  • the processing load on the control unit 170 can be reduced.
  • the detection areas of the first object detection sensor unit 111 and the second object detection sensor unit 113 that form the interference detection area are set to 0 and the reception of the reflected light is disabled, they are arranged annularly with respect to the mounting target. For example, in many cases, for example, a person or an object approaching from the outside can be detected by either the first object detection sensor unit 111 or the second object detection sensor unit 113 that has been used.
  • the detection area is reduced to a predetermined range.
  • the detection area is calculated from the estimated shape.
  • the detection area may be adjusted using the distance between the arms. For example, when an object is detected at a distance shorter than the arm-to-arm distance, detection result information indicating that the object has been detected is generated, and when an object is detected at a distance longer than the inter-object distance, the object is detected. It generates the detection result information indicating that it does not exist.
  • the shape of the attachment target and the detection areas of the first object detection sensor unit 111 and the second object detection sensor unit 113 are specifically estimated, although it is assumed that the detection area adjustment information is generated after judging the interference between the two, the detection area adjustment information is not limited to the example as long as the detection area adjustment information can be generated so as to prevent detection of an unintended object.
  • the detection area adjustment information is not limited to the example as long as the detection area adjustment information can be generated so as to prevent detection of an unintended object.
  • the predetermined region F13 of the surface of the arm AM3 facing the arm AM7 may be determined by the central angle ⁇ of the arm AM3.
  • Acceleration sensor unit In the above-described tenth embodiment, the acceleration is detected and the movement information is generated by using the three-axis acceleration sensor unit 111g. Is not limited to For example, a three-axis angular velocity sensor may be provided in addition to the three-axis acceleration sensor. Thus, even if the industrial robot RBT operates so that the arm rotates about the long axis, the shape of the industrial robot RBT can be estimated, and the first object detection sensor unit 111 and the second object detection sensor The position of the unit 113 and each detection area can be estimated.
  • the acceleration sensor unit 111g is provided in the first object detection sensor unit 111, but may be provided in the second object detection sensor unit 113.
  • two object detection sensor units 110 are arranged on each arm, and each has the first object detection sensor unit 111.
  • a plurality of object detection sensor units are arranged on each arm.
  • the acceleration sensor unit 111g may be arranged in a part of the object detection sensor unit 110, for example, any one of them.
  • the first object detection sensor unit 111 acquires the acceleration information after generating the detection result information (see FIG. 58). Regardless of the generation of the acceleration, the acceleration may be appropriately acquired at a necessary timing and the movement information may be transmitted to the control unit 170. Thus, the control unit 170 can follow the operating state of the industrial robot RBT to be attached in real time and realize high-speed processing.
  • the CPU 170a executes the shape estimation processing of the attachment target every time the movement information is acquired (S2101) (S909).
  • the CPU 170a obtains sensor information from all the first object detection sensor units 111 and the second object detection sensor units 113 (S905), the estimated shape of the industrial robot RBT at that time estimated by the shape estimation process is obtained. May be acquired (S2109), and the detection area information generation processing may be executed (S911).
  • the sensor control unit 111e of the first object detection sensor unit 111 controls the acquisition timing of the movement information from the acceleration sensor unit 111g.
  • the sensor control unit 111e can control the acquisition timing of the movement information. If it is, it is not limited to the example.
  • the CPU 170a of the control unit 170 may control the acquisition timing of the movement information from the acceleration sensor unit 111g. Accordingly, communication overhead generated between the control unit 170 and the first object detection sensor unit 111 can be reduced. The same applies to the second object detection sensor unit 113.
  • First object detection sensor unit 111, second object detection sensor unit 113 In the above-described tenth embodiment, the first object detection sensor unit 111 and the second object detection sensor unit 113 are formed on respective substrates. Although the connection is made by the sensor connection line, both may be arranged on the same substrate.
  • the housing 119 of the object detection sensor unit 110 has a hollow cylindrical shape.
  • the shape may be a hollow rectangular column.
  • the object detection sensor unit 110 may not include the housing 119, and the first object detection sensor unit 111 and the second object detection sensor unit 113 may be attached to the attachment target.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 determine the presence of an object. Although the detection is performed, the distance and the direction to the object may be detected. By detecting the distance by the object detection sensor unit 13, an object or a person who has entered an arbitrary set distance from the mounting target can be detected. Thereby, the operation of the attachment target can be controlled based on the distance from the attachment target.
  • the first object detection sensor unit 111 and the second object detection sensor unit 113 detect the presence of an object using predetermined detection light.
  • Other detection waves such as sound waves may be used.
  • (40) Configuration of the control unit 170 In the above-described tenth embodiment, the operation of the control unit 170 is realized by using the CPU 170a. However, the configuration is not limited to the example as long as the operation of the control unit 170 can be realized. . For example, a dedicated logic circuit may be designed and used.
  • each of the object detection sensor units 110 is connected to the control unit 170 in parallel.
  • the object detection sensor unit 110 of the unit may be connected to the control unit 170.
  • each of the object detection sensor units 110 and the control unit 170 are connected by the connection harness 190, but may be connected by wireless.
  • the object detection sensor unit 110 and the control unit 170 are connected using the connection harness 190.
  • the plurality of object detection sensor units 110 are connected to one intermediate interface unit, and the intermediate interface unit is connected. May be connected to the control unit 170, that is, the object detection sensor unit 110 and the control unit 170 may be connected via the intermediate interface unit.
  • an object may be detected using only a predetermined light by using a light filter for the light projecting lens 111b.
  • the housing 119 is formed by the first housing 1191 and the second housing 1192. It may be formed by the above housing.
  • control unit 170 uses the CPU 170a to execute the detection area adjustment processing. Is not limited to For example, a logic circuit may be designed to execute the detection area adjustment processing.
  • Processing of the first object detection sensor unit 111 and the second object detection sensor unit 113 perform the following processing.
  • FIGS. 58 and 59 have been described, the flowchart is not limited to the illustrated flowchart as long as the same processing can be executed.
  • the object detection device according to the present invention can be used for, for example, an industrial robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Manipulator (AREA)

Abstract

物体検知装置(10)は、物体検知センサユニット(11)、制御部(17)、接続ハーネス(19)を有している。物体検知センサユニット(11)は、複数の物体検知センサ部(13)、センサ配置柔軟部材(15)を有している。センサ配置柔軟部材(15)は、柔軟性を有する部材であって、取り付ける対象物の表面に沿って配置できる。センサ配置柔軟部材(15)を形成し得る素材としては、薄いゴムプレートがある。センサ配置柔軟部材(15)は、帯形状を有している。各物体検知センサユニット(11)は、センサ配置柔軟部材(15)を設置対象物の外周に沿うように配置される。センサ配置柔軟部材(15)を変形させて、物体検知センサユニット(11)を、設置場所の形状にかかわらず、物体検知センサユニット(11)を設置対象である装置の外表面に、容易に配置できる。

Description

物体検知装置
 本発明は、物体検知装置に関し、特に、物体検知センサ部を、設置場所の形状にかかわらず、容易に配置することができるものに関する。また、本発明は、物体検知装置に関し、特に、物体検知センサ部を取り付ける取付対象物の表面近傍を検知するものに関する。さらに、本発明は、物体検知システムに関し、特に、検知領域を、適宜、調整できるものに関する。
 従来の物体検知装置について、図12に示す物体検知装置Z100を用いて説明する。図12には、物体検出装置Z100(図示せず)の使用例として、産業用ロボットの外表面に配置した状態を示している。物体検出装置Z100は、複数の光センサユニットZSU及び1つの中央制御部Z115を有している。光センサユニットZSUでは、複数の光センサ部Z111と1つのユニット制御部Z113とが、光センサ用接続線ZL111を介してスター型に接続されている。1つのグループラインZGLに属するユニット制御部Z113は、ユニット制御部用接続線ZL113を介してカスケード型に接続される。カスケード型に接続されるユニット制御部Z113の一つは、ユニット制御部用接続線ZL113を介して中央制御部Z115に接続される。フレキシブル性を有する光センサ用接続線ZL111及びユニット制御部用接続線ZL113を用いることによって、設置場所の形状に合わせて、自由に光センサ部Z111及びユニット制御部Z113を配置し、設置場所での検知範囲を自由に設定することができる。
 産業用ロボットZ50は、7軸の可動軸を有するロボットである。産業用ロボットZ50は、アームZAM1~ZAM7、可動回転ジョイントZJ1~ZJ13、土台ZB1、及び、ハンドZH1を有している。アームZAM1~ZAM7、ハンドZH1、土台ZB1の各外周面に物体検出装置Z100が配置されている。
 アームZAM1~ZAM7、土台ZB1、及び、ハンドZH1には、それぞれ1つのユニット制御部及び複数の光センサ部Z111が配置されている。図12に示すように、光センサ部Z111は、アームZAM1~ZAM7、ハンドZH1、土台ZB1等、設置場所の形状にかかわらず、いずれの場所にも配置することができる。このように、物体検出装置Z100を、設置対象である装置の外表面に容易に光センサ部Z111を配置することができるので、産業用ロボットの周辺に人等の物体を検出したときに、ロボットを緊急停止させることが可能となる。つまり、設置対象装置、例えば産業用ロボットの安全性を高めることができる。
 また、光センサ用接続線ZL111の長さを調整することにより、どのような位置にでも光センサ部Z111を配置することができる。よって、角柱状のアームZAM1~ZAM7、円柱状の土台ZB1等、設置場所の形状にかかわらず、全周囲に光センサ部111を配置することができる。これにより、ロボットの全周縁で人等の物体を検出することができるので、設置対象装置の安全性を高めることができる。
 さらに、ハンドZH1のような複雑な形状であっても、自由に光センサ部Z111を配置することができる。よって、光センサ部Z111を配置するにあたって死角の発生を防止できるので、設置対象装置の安全性を高めることができる。
 さらに、可動回転ジョイントZJ1~ZJ13のように、光センサ部Z111を配置するアームZAM1~ZAM7等の間に障害物があったとしても、ユニット制御部用接続線ZL113の長さを調整することにより、障害物を回避しながら、ユニット制御部Z113同士を接続することができる。このように、物体検知装置Z100では、配置する装置の形状にかかわらず、自由に配置することができる。
 物体検知装置Z100では、どのような設置形状であっても、光センサ部Z111及びユニット制御部Z113の数、配置位置、また、光センサ用接続線ZL111、ユニット制御部用接続線ZL113の長さを調整するだけで、容易に物体検知装置を配置することができる。また、物体検知装置Z100は、検知位置、検知範囲の変更、設置位置の変更、設置対象装置の形状の変更等、設置環境の変化にあわせて、光センサ部Z111、ユニット制御部Z113の設置位置を変更したり、設置数を追加、減少させたりすることによって、容易に設置環境の変化に対応することができる(以上、特許文献1参照)。
特開2013-083615号公報
 1.前述の物体検知装置Z100には、以下に示すような改善すべき点がある。物体検知装置Z100では、複数の光センサ部Z111及びユニット制御部Z113を、個別に設置対象物に配置する必要がある。このため、光センサ部Z111及びユニット制御部Z113の配置作業が繁雑であり、時間を要する、という改善すべき点がある。
 また、複数の光センサ部Z111及びユニット制御部Z113が、各接続線で接続されているため、物体検知装置Z100の持ち運び等、取り扱いが面倒である、という改善すべき点がある。
 そこで、本発明は、取り扱いが簡単で、物体検知センサ部を、設置場所の形状にかかわらず、容易に配置することができる物体検知装置を提供することを目的とする。
 2.前述の物体検知装置Z100には、以下に示すような改善すべき点がある。物体検知装置Z100では、複数の光センサ部Z111は、設置対象物である産業用ロボットZ50の表面から外側に向かって、つまり、各アームの表面から放射方向に向かって、検知光を投光する。このため、産業用ロボットZ50の各アームの表面付近を検知することができない、という改善すべき点がある。
 また、表面付近で検知できない範囲をできるだけ少なくしようとすると、多数の光センサ部Z111を配置する必要がある。光センサ部Z111の配置に要する作業負担が非常に大きくなるため、表面付近を検知するために多数の光センサ部Z111を配置することは、現実的でない、という改善すべき点がある。
 そこで、本発明は、設置対象物の表面付近を容易に検知することができる物体検知装置を提供することを目的とする。
 3.前述の物体検知装置Z100には、以下に示すような改善すべき点がある。物体検知装置Z100では、設置対象物の形状によっては、各光センサ部Z111が、自らが設置されている設置対象物自体を意図せずに検知してしい、設置対象物の動作を意図せず停止させてしまうことがある、という改善すべき点がある。
 そこで、本発明は、取付対象の形状にかかわらず、意図しない物体検知を防止できる物体検知システムを提供することを目的とする。
 本発明における課題を解決するための手段及び発明の効果を以下に示す。
 本発明に係る物体検知装置は、周囲の物体を検知する物体検知センサ部、複数の前記物体検知センサ部が配置され、柔軟性を有するセンサ配置柔軟部材、前記物体検知センサ部の動作を制御する制御部、前記物体検知センサ部と前記制御部とを、直接的に、または、間接的に接続する接続ハーネス、を有する。
 これにより、センサ配置柔軟部材を変形させることによって、物体検知センサ部を、設置場所の形状にかかわらず、容易に配置することができる。このように、物体検知センサ部を設置対象物の外表面に容易に配置することができるので、設置対象物の周辺に物体を検出したときに、設置対象物の動作を制御する動作制御システムを容易に構築できる。
 また、複数の物体検知センサ部がセンサ配置柔軟部材に一体として配置されているため、取り扱いを容易にできる。
 本発明に係る物体検知装置では、前記センサ配置柔軟部材は、帯形状を有し、前記帯形状の長軸に沿って直線状に配置された前記物体検知センサ部を有すること、を特徴とする。
 これにより、帯形状のセンサ配置柔軟部材を、物体検知装置を配置する対象である配置対象物に巻き付けるだけで、物体検知センサ部を配置対象物に配置できる。
 本発明に係る物体検知装置では、前記センサ配置柔軟部材は、前記物体検知センサ部が配置されるセンサ配置部材、前記センサ配置部材の間を連結する中間柔軟部材であって、柔軟性を有する中間柔軟部材、を有すること、を特徴とする。
 これにより、センサ配置部材に柔軟性を付与し、センサ配置柔軟部材を変形させることができるので、物体検知センサ部を、設置場所の形状にかかわらず、容易に配置することができる。このように、物体検知センサ部を設置対象物の外表面に容易に配置することができるので、設置対象物の周辺に物体を検出したときに、設置対象物の動作を制御する動作制御システムを容易に構築できる。
 本発明に係る物体検知装置では、前記中間柔軟部材は、長さを調整する伸縮機構を有すること、を特徴とする。
 これにより、物体検知センサ部を所望の位置に配置することができる。
 本発明に係る物体検知装置では、前記センサ配置柔軟部材は、前記物体検知センサ部が配置される複数の単位柔軟部材、を有し、前記単位柔軟部材は、隣接する他の前記単位柔軟部材と連結する連結機構を有すること、を特徴とする。
 これにより、センサ配置部材に柔軟性を付与し、センサ配置柔軟部材を変形させることが出来ので、物体検知センサ部を、設置場所の形状にかかわらず、容易に配置することができる。このように、物体検知センサ部を設置対象物の外表面に容易に配置することができるので、設置対象物の周辺に物体を検出したときに、設置対象物の動作を制御する動作制御システムを容易に構築できる。
 本発明に係る物体検知装置では、前記接続ハーネスは、前記物体検知センサ部のそれぞれを前記制御部に直接的に接続すること、を特徴とする。
 これにより、物体検知センサ部は、他の物体検知センサ部を介して、つまり、他の物体検知センサ部と接続されなくともよい。よって、物体検知センサ部を、物体検知センサ部と制御部との間の間隔等、制御部との位置関係のみを考えて配置できるため、他の物体検知センサ部の配置位置にかかわらず、自由に配置できる。また、制御部17に対して接続する物体検知センサ部の数を、容易に増減できる。
 本発明に係る物体検知装置では、前記接続ハーネスは、前記物体検知センサ部の間をカスケード接続すること、を特徴とする。
 これにより、カスケード接続された複数の物体検知センサ部のうち端部に位置するもののみを制御部と接続すればよい。つまり、簡易な構成で、物体検知センサ部と制御部とを接続できる。
 本願発明に係る物体検知装置は、周囲の物体を検知する物体検知センサ部、複数の前記物体検知センサ部が配置され、柔軟性を有するセンサ配置柔軟部材、前記物体検知センサ部の動作を制御する制御部、前記物体検知センサ部と前記制御部とを接続する接続ハーネス、を有する物体検知装置であって、前記センサ配置柔軟部材は、前記物体検知センサ部が配置されるセンサ配置部材、前記物体検知センサ部の間をカスケード接続する中間接続ハーネスであって、柔軟性を有する中間接続ハーネス、を有すること、を特徴とする。
 これにより、中間接続ハーネスを用いるだけで、センサ配置部材の間を、センサ配置部材を接続するとともに、物体検知センサ部を電気的に接続できるので、物体検知装置を簡易な構成にできる。
 本発明に係る物体検知装置では、前記中間接続ハーネスは、長さを調整する伸縮機構を有すること、を特徴とする。
 これにより、簡易な構成で物体検知センサ部を所望の位置に配置することができる。
 本発明に係る物体検知装置では、前記接続ハーネスは、隣接する前記物体検知センサ部間を接続するセンサ間接続線、及び、前記物体検知センサ部と前記制御部とを、直接的に接続する接続線、を有し、前記センサ間接続線を覆うことによって保護するセンサ間接続線保護部、を有する。
 これにより、センサ間接続線は、センサ間接続線被覆部によって保護され、センサ間接続線が外部からの力によって損傷を受けることを防止できる。
 本発明に係る物体検知装置では、前記センサ間接続線保護部は、隣接する前記物体検知センサ部間毎に配置されること、を特徴とする。
 これにより、センサ間接続線保護部は、センサ間接続線毎に対応して形成されるため、センサ配置柔軟部材の柔軟性を毀損することがない。
 本発明に係る物体検知装置では、前記センサ間接続線保護部は、環状構造を有すること、を特徴とする。
 これにより、官状に配置された物体検知センサ部間を接続するセンサ間接続線を、容易に保護することができる。
 本発明に係る物体検知装置では、前記センサ間接続線保護部は、前記物体検知センサ部を配置するためのセンサ用開口を有すること、を特徴とする。
 これにより、物体検知センサ部を、容易に環状に固定することができる。
 本発明に係る物体検知装置は、所定の設置対象物の表面に設置する物体検知装置であって、前記表面の法線方向に対して交差する方向に検知光を投光する投光部、及び、前記表面の前記法線方向に対して交差する方向から前記検知光を受光する受光部の少なくともいずれか一方、を有する。
 これにより、設置対象物の表面の法線方向に対して交差する方向に対して、容易に、物体を検知できる。投光部を設置対象物の表面に近い位置に設置すれば、設置対象物の表面の近くで、物体検知できる。
 本発明に係る物体検知装置では、さらに、前記投光部、及び/又は、受光部が内部に位置する筐体部であって、環状構造を有する筐体部、を有する。
 これにより、容易に投光部、受光部を取付対象に取り付けることができる。
 本発明に係る物体検知装置では、前記筐体部は、前記表面の前記法線方向に対して交差する方向を法線方向とする端面、を有し、前記端面は、前記検知光を投光するための開口、及び/又は、前記検知光を受光するための開口、を有すること、を特徴とする。
 これにより、投光部、受光部を保護しながら、容易に取付対象に取り付けることができる。
 本発明に係る物体検知装置では、前記投光部は、他の物体検知装置の前記受光部に対して前記検知光を投光し、前記受光部は、他の物体検知装置の前記投光部が投光した前記検知光を受光すること、を特徴とする。
 これにより、検知光が遮断され、検知光を受光できなかった時に、物体を検知したと判断するようにできる。
 本発明に係る物体検知装置では、互いに対をなす前記投光部、及び、前記受光部を有し、前記受光部は、対をなす前記投光部が投光した前記検知光を受光すること、を特徴とする。
 これにより、取り付け時には、検知光の投受光にともなう投光部における検知光の投光方向、受光部における受光方向の調整を不要にできるため、より簡単に投光部、受光部を取付対象に取り付けることができる。
 本発明に係る物体検知装置では、前記端面に対向して位置する反射面であって、前記投光部が投光した検知光を、前記検知光を投光した前記投光部と対をなす前記受光部に対して反射する反射面を有する反射部、を有すること、を特徴とする。
 これにより、検知光が遮断され、検知光を受光できなかった時に、物体を検知したと判断するようにできる。
 本発明に係る物体検知システムは、所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、自身の移動状態を示す移動情報を取得する移動情報取得部、前記検知結果情報、及び、前記位置情報を送信する送信部、前記検知領域を調整する検知領域調整情報を受信する受信部、前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、取付対象に取り付けるための筐体部、を有する物体検知センサユニット、及び、前記検知結果情報、及び、前記移動情報を受信する受信部、受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサ部に対して、送信する検知領域調整情報送信部、を有する物体検知制御装置、を有する。
 これにより、取付対象の形状、及び、検知領域とが干渉しているか否かを判断した上で検知領域を調整するため、意図しない物体の検知を防止できる。
 本発明に係る物体検知センサユニットは、
 所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、自身の移動状態を示す移動情報を取得する移動情報取得部、前記検知結果情報、及び、前記位置情報を送信する送信部、前記検知領域を調整する検知領域調整情報を受信する受信部、前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、取付対象に取り付けるための筐体部、を有する。
 これにより、取付対象の形状、及び、検知領域とが干渉しているか否かを判断した上で検知領域を調整できるので、意図しない物体の検知を防止できる。
 本発明に係る物体検知センサユニットでは、前記検知領域調整部は、前記検知領域を減縮するまたは、0(ゼロ)にするように調整すること、を特徴とする。
 これにより、容易に検知領域を調整し、意図しない物体の検知を防止できる。
 本発明に係る物体検知センサユニットでは、前記移動情報取得部は、3軸の加速センサであること、を特徴とする。
 これにより、容易に、取付対象の形状、及び、検知領域を推定できる。
 本発明に係る物体検知制御装置は、所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、自身の移動状態を示す移動情報を取得する移動情報取得部、前記検知結果情報、及び、前記位置情報を送信する送信部、前記検知領域を調整する検知領域調整情報を受信する受信部、前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、取付対象に取り付けるための筐体部、を有する物体検知センサユニットに対して前記検知領域調整情報を送信する物体検知制御装置であって、前記検知結果情報、及び、前記移動情報を受信する受信部、受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサユニットに対して、送信する検知領域調整情報送信部、を有する。
 これにより、取付対象の形状、及び、検知領域とが干渉しているか否かを判断した上で検知領域を調整するため、意図しない物体の検知を防止できる。
 本発明に係る物体検知制御装置では、前記検知領域調整情報生成部は、前記検知領域を減縮するまたは、0(ゼロ)にするように調整する前記検知領域調整情報を生成すること、を特徴とする。
 これにより、容易に検知領域を調整し、意図しない物体の検知を防止できる。
 本発明に係る物体検知制御装置では、前記検知領域調整情報生成部は、前記物体検知センサユニットの前記物体検知センサ部における前記反射光を受光可能とする受光待機時間を短縮する前記検知領域調整情報を生成すること、を特徴とする。
 これにより、容易に、検知領域を調整できる。
 本願発明に係る検知領域調整プログラムは、
 コンピュータを、所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、自身の移動状態を示す移動情報を取得する移動情報取得部、前記検知結果情報、及び、前記位置情報を送信する送信部、前記検知領域を調整する検知領域調整情報を受信する受信部、前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、取付対象に取り付けるための筐体部、を有する物体検知センサユニットに対して前記検知領域調整情報を送信する物体検知制御装置として動作させる検知領域調整プログラムであって、前記検知領域調整プログラムは、前記コンピュータを、前記検知結果情報、及び、前記移動情報を受信する受信部、受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサユニットに対して、送信する検知領域調整情報送信部、として動作させる。
 これにより、取付対象の形状、及び、検知領域とが干渉しているか否かを判断した上で検知領域を調整するため、意図しない物体の検知を防止できる。
本発明に係る物体検知装置の一実施例である物体検知装置10を示す図である。 物体検知センサ部13のハードウェア構成を示す図である。 センサ配置柔軟部材15を示す図である。 制御部17のハードウェア構成を示す図である。 物体検知装置10の設置例を示すである。 本発明に係る物体検知装置の一実施例である物体検知装置20のハードウェア構成を示す図である。 物体検知装置20の物体検知センサユニット21を示す図である。 本発明に係る物体検知装置の一実施例である物体検知装置30のハードウェア構成を示す図である。 物体検知装置30の物体検知センサユニット31のハードウェア構成を示す図である。 物体検知装置のその他の実施例を示す図である。 物体検知装置のその他の実施例を示す図である。 従来の物体検知装置を示す図である。 本発明に係る物体検知装置の一実施例である物体検知装置40の直線状状態を示す図である。 物体検知装置40の直線状状態を示す図である。 物体検知装置40の環状状態を示す図である。 ユニット配置部433の上面側から見た斜視図である。 ユニット配置部433の下面側から見た斜視図 センサ間接続線保護部49の上面側から見た斜視図である。 センサ間接続線保護部49の下面側から見た斜視図である。 本発明に係る物体検知装置の一実施例である物体検知装置50のハードウェア構成を示す図である。 物体検知センサユニット51を示す図である。 物体検知センサユニット51を示す図である。 センサ間接続線保護部59を示す図である。 センサ間接続線保護部59の断面を示す図である。 本発明に係る物体検知装置の一実施例である物体検知装置60のハードウェア構成を示す図である。 センサ間接続線保護部69を示す図である。 物体検知センサユニット61を示す図である。 本発明に係る物体検知装置の一実施例である物体検知装置X10を示す図である。 物体検知センサユニットX11の外観を示す図である。 物体検知センサユニットX11の内部を示す図である。 制御部X19のハードウェア構成を示す図である。 物体検知装置X10の設置例を示すである。 本発明に係る物体検知装置の一実施例である物体検知装置X20を示す図である。 物体検知センサユニットX21の外観を示す図である。 物体検知センサユニットX21の内部を示す図である。 物体検知装置X20の設置例を示すである。 本発明に係る物体検知装置の一実施例である物体検知装置X30の物体検知センサユニットX31の外観を示す図である。 物体検知センサユニットX31の内部を示す図である。 物体検知装置のその他の実施例を示す図である。 物体検知装置のその他の実施例を示す図である。 物体検知装置のその他の実施例を示す図である。 物体検知装置のその他の実施例を示す図である。 物体検知装置のその他の実施例を示す図である。 本発明に係る物体検知システムの一実施例である物体検知システム100を示す図である。 物体検知センサユニット110の外観を示す図である。 物体検知センサユニット110の一部の内部を示す図である。 物体検知センサユニット110の筐体部119を示す図である。 第1物体検知センサ部111のハードウェア構成を示す図である。 第2物体検知センサ部113のハードウェア構成を示す図である。 制御部170のハードウェア構成を示す図である。 取付対象である産業用ロボットRBTの初期状態を示す図である。 制御部170の動作を示すフローチャートである。 制御部170の動作を示すフローチャートである。 制御部170の動作を示すフローチャートである。 取付対象である産業用ロボットRBTの所定時間動作後の状態を示す図である。 検知領域の状態を示す図である。 検知領域の状態を示す図である。 第1物体検知センサ部111の動作を示すフローチャートである。 第2物体検知センサ部113の動作を示すフローチャートである。 本発明に係る物体検知システムのその他の実施例を示す図である。 本発明に係る物体検知システムのその他の実施例を示す図である。 本発明に係る物体検知システムのその他の実施例を示す図である。 本発明に係る物体検知システムのその他の実施例を示す図である。 本発明に係る物体検知システムのその他の実施例を示す図である。
 以下、本発明の実施例について、図面を参照しながら詳細に説明していく。
 本発明に係る物体検知装置について、図1に示す物体検知装置10を例に説明する。物体検知装置10は、周囲に物体が存在するか否かを検知し、物体の検知結果に基づき所定の動作をさせるものである。
第1 ハードウェア構成
 物体検知装置10は、物体検知センサユニット11、制御部17、及び、接続ハーネス19を有している。物体検知センサユニット11は、複数の物体検知センサ部13、及び、センサ配置柔軟部材15を有している。
 物体検知センサ部13は、所定の光を検知光として投光し、検知光の反射を受光することによって、物体が存在するか否かを検知する。物体検知センサ部13のハードウェア構成を図2に示す。
 物体検知センサ部13は、投光素子13a、投光レンズ13b、受光素子13c、及び、センサ用通信回路13dを有している。投光素子13aは、所定の検知光、例えば近赤外線を投光する。投光レンズ13bは、投光素子13aが投光した検知光を所定の範囲(検知領域R13)に拡散する。例えば、シリンドリカルレンズを用いることによって、所定の方向に直線状に延びた検知領域を形成することができる。なお、投光レンズ13bについては、レンズの形状や特性を、適宜、選択することによって、物体検知センサ部13を配置する対象である産業用ロボット等の配置対象物を誤検知することがないように調整しておいてもよい。受光素子13cは、投光素子13aが投光した検知光の物体による反射光を受光する。
 投光素子13aとしては、例えば近赤外LED(Light Emitting Diode)等を利用することができる。受光素子13cとしては、例えばフォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を用いることができる。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を、受光素子13cと合わせて配置するようにしてもよい。
 センサ用通信回路13dは、制御部17のセンサ制御用通信回路17gと接続され、物体検知センサ部13と制御部17とが通信できるようにする。なお、各物体検知センサ部13のセンサ用通信回路13dは、直接的に、つまり、パラレルに制御部17に接続される。
 図1に戻って、センサ配置柔軟部材15は、柔軟性を有する部材であって、取り付ける対象物の表面に沿って配置できるものをいう。センサ配置柔軟部材15を形成し得る素材としては、例えば、薄いゴムプレートを用いることができる。物体検知センサ部13が配置されたセンサ配置柔軟部材15の平面図を図3Aに示す。センサ配置柔軟部材15は、帯形状、つまり、細長い矩形状を有している。センサ配置柔軟部材15は、帯形状の長軸J15に沿って、直線上に配置された複数の物体検知センサ部13を有している。なお、物体検知センサ部13は、等間隔でセンサ配置柔軟部材15に配置されている。センサ配置柔軟部材15には、所定の固定部材、接着剤、ネジ等、所定の固定手段によって、物体検知センサ部13が固定される。
 図3Bに示すように、センサ配置柔軟部材15に直線状に配置された物体検知センサ部13のそれぞれが形成する検知領域R13によって、センサ配置柔軟部材15上に帯形状の検知領域R11が形成される。つまり、帯形状のセンサ配置柔軟部材15上に、帯形状の検知領域R13が形成される。
 図1に戻って、制御部17は、各物体検知センサ部13から、接続ハーネス19を介してセンサ検知情報を受信する。制御部17は、受信したセンサ検知情報、及び、各物体検知センサ部13間の接続関係、または/及び、各物体検知センサ部13と制御部17との接続関係の配置位置を示すセンサ接続情報から、物体検知センサ部13の周囲に物体が存在するか否かを判断する。センサ接続情報については、予め所定のメモリ等の記憶手段に記憶しておく。
 制御部17のハードウェア構成について図4を用いて説明する。制御部17は、CPU17a、メモリ17b、センサ制御用通信回路17g、及び、動作制御用通信回路17hを有している。
 CPU17aは、メモリ17bに記録されているオペレーティング・システム(OS)、センサ制御プログラム等その他のアプリケーションに基づいた処理を行う。メモリ17bは、CPU17aに対して作業領域を提供するとともに、オペレーティング・システム(OS)、センサ制御プログラム等その他のアプリケーションのプログラム、及び、各種データを記録保持する。
 センサ制御用通信回路17gは、物体検知センサ部13のセンサ用通信回路13d(図2参照)と接続ハーネス19(図1参照)を介して接続され、両者間での情報の送受信を行う。なお、センサ制御用通信回路17gは、物体検知センサ部13のそれぞれと、直接的に、つまり、パラレルに接続される。動作制御用通信回路17hは、物体検知センサユニット11による物体の存在検知に基づき、動作を制御する対象に接続され、両者間での情報の送受信を行う。
 図1に戻って、接続ハーネス19は、各物体検知センサ部13と制御部17とを直接的に接続する。つまり、接続ハーネス19は、各物体検知センサ部13を制御部17に対してパラレル接続するための接続線である。
第2 使用例
 物体検知装置10の使用例として、産業用ロボットの外表面に配置した状態を図5に示す。産業用ロボットRBTは、7軸の可動軸を有するロボットである。産業用ロボットRBTは、アームAM1~AM7、可動回転ジョイントJ1~J13、土台B1、及びハンドH1を有している。アームAM3、AM5、土台B1の各外周面に物体検知装置10の物体検知センサユニット11が配置されている。アームAM3、AM5、及び、土台B1に配置されている3つの物体検知センサユニット11は、制御部17に接続されている。また、制御部17は、産業用ロボットRBTの可動回転ジョイントJ1~J13を動作させる動力源(図示せず)に接続されている。制御部17は、動力源の動作を制御することによって、アームAM1~AM7の動作を制御する。
 各物体検知センサユニット11は、センサ配置柔軟部材15を各アームの外周に沿うように配置されている。センサ配置柔軟部材15を変形させることによって、物体検知センサユニット11を、設置場所であるアームAM3、AM5の形状にかかわらず、簡単に配置することができる。このように、物体検知センサユニット11を設置対象である装置の外表面に容易に配置することができるので、産業用ロボットの周辺に人等の物体を検出したときにロボットを緊急停止させる安全システムを容易に構築できる。つまり、設置対象装置、例えば産業用ロボットの安全性を容易に構築できる。
 また、複数の物体検知センサ部13がセンサ配置柔軟部材15に一体として配置されているため、持ち運び等、容易に取り扱うことができる。
 なお、図5においては、センサ配置柔軟部材15の長さ、及び、配置する物体検知センサ部13の数を調整することにより、どのような形状にでも物体検知センサユニット11を配置することができる。よって、角柱状のアームAM1~AM7、円柱状の土台B1等、設置場所の形状にかかわらず、表面に物体検知センサユニット11を配置することができる。これにより、ロボットの全周縁等、必要な範囲で人等の物体を容易に検出することができるので、設置対象装置の安全性を容易に高めることができる。
 さらに、可動回転ジョイントJ1~J13のように、物体検知センサユニット11を配置するアームAM1~AM7等の間に障害物があったとしても、センサ配置柔軟部材15の長さ、及び、配置する物体検知センサ部13の数を調整することにより、障害物を回避しながら、物体検知センサユニット11を配置することができる。このように、物体検知装置10では、配置する物体の形状にかかわらず、自由に物体検知センサユニット11を配置することができる。
 また、物体検知装置10では、センサ配置柔軟部材15上に検知領域R11が形成されるため(図3参照)、センサ配置柔軟部材15の形状に沿った検知領域R11が形成される領域を把握できるため、所望の領域に容易に物体検知装置10の検知領域R11を形成することができる。
 前述の実施例1にかかる物体検知装置10における物体検知センサユニット11では、センサ配置柔軟部材15に物体検知センサ部13を配置していいた。一方、本実施例にかかる物体検知装置20における物体検知センサユニット21では、物体検知センサ部13を配置するセンサ配置部材251、及び、センサ配置部材251を接続する中間柔軟部材253を有するセンサ配置柔軟部材25を用いる。なお、以下においては、実施例1と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 ハードウェア構成
 物体検知装置20のハードウェア構成について、図6を用いて説明する。物体検知装置20は、物体検知センサユニット21、制御部17、及び、接続ハーネス19を有している。
 センサ配置柔軟部材25のハードウェア構成について、図7を用いて説明する。物体検知センサユニット21は、複数の物体検知センサ部13、及び、センサ配置柔軟部材25を有している。センサ配置柔軟部材25は、センサ配置部材251及び中間柔軟部材253を有している。センサ配置部材251は、角盤形状を有しており、物体検知センサ部13が配置される。中間柔軟部材253は、センサ配置部材251の間に配置され、センサ配置部材251間を接続する。中間柔軟部材253は、ベルト253a及び伸縮機構253bを有している。ベルト253aは、柔軟性を有し、例えば、カバンのショルダーベルトに用いられているような布製物を用いる。伸縮機構253bは、隣接するセンサ配置部材251の間のベルト253aの長さを調整する。伸縮機構253bとしては、例えば、カバンのショルダーベルトに用いられているような長さの調整機構を用いる。
 センサ配置部材251及び中間柔軟部材253を用いてセンサ配置柔軟部材25を形成することによって、センサ配置柔軟部材25は全体として柔軟性を有し、センサ配置柔軟部材25を取り付ける対象物の表面に沿って配置できる。また、長さを調整できる伸縮機構253bを用いることによって、隣接するセンサ配置部材251の間の長さを調整できるので、物体検知センサ部13を所望の位置に配置できる。さらに、センサ配置部材251及び中間柔軟部材253の数を増減することによって、センサ配置柔軟部材25全体の長さを調整できるので、配置する対象物の大きさ、長さに応じたセンサ配置柔軟部材25を容易に準備することができる。
 なお、各物体検知センサ部13は、接続ハーネス19(図6参照)を用いて、パラレル接続で制御部17に接続される。
 前述の実施例2にかかる物体検知装置20における物体検知センサユニット21では、センサ配置部材251、中間柔軟部材253を用いてセンサ配置柔軟部材25に柔軟性を付与し、取り付ける対象物の表面に沿って配置するものであった。一方、本実施例にかかる物体検知装置30における物体検知センサユニット31では、複数の単位柔軟部材351を連結するセンサ配置柔軟部材35を用いる。なお、以下においては、実施例1、実施例2と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 ハードウェア構成
 物体検知装置30のハードウェア構成について、図8を用いて説明する。物体検知装置30は、物体検知センサユニット31、制御部17、及び、接続ハーネス19を有している。
 物体検知センサユニット31のハードウェア構成について、図9を用いて説明する。物体検知センサユニット31は、複数の物体検知センサ部13、及び、センサ配置柔軟部材35を有している。センサ配置柔軟部材35は、複数の単位柔軟部材351を有している。単位柔軟部材351は、矩形状の板形状を有しており、物体検知センサ部13が配置される。また、単位柔軟部材351は、隣接して位置する他の単位柔軟部材351と連結するための連結機構を有している。連結機構としては、例えば、クローラーやキャタピラー等と呼称されている無限軌道のベルトの連結機構を用いる。
 単位柔軟部材351を用いてセンサ配置柔軟部材35を形成することによって、センサ配置柔軟部材35に柔軟性を付与し、センサ配置柔軟部材35を対象物の表面に沿って配置することができる。また、接続する単位柔軟部材351の数を増減でき、センサ配置柔軟部材35の全体の長さを容易に変更することができる。このため、対象物の大きさや形状に合わせたセンサ配置柔軟部材35を容易に準備することができる。
 なお、各物体検知センサ部13は、接続ハーネス19(図8参照)を介して、パラレル接続で制御部17に接続される。
 前述の実施例1にかかる物体検知装置10における物体検知センサユニット11では、センサ配置柔軟部材15に配置される物体検知センサ部13は、パラレルに制御部17に接続されていた。一方、本実施例にかかる物体検知装置40では、各物体検知センサ部13を隣接する物体検知センサ部13と、柔軟性を有する接続線でカスケード接続するとともに、物体検知センサ部13間の接続線を保護するものである。なお、以下においては、実施例1と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 ハードウェア構成
 物体検知装置40のハードウェア構成について、図13~図15を用いて説明する。物体検知装置40の物体検知センサユニット41(後述)は、センサ配置柔軟部材45(後述)を直線状に配置した直線状状態(図13、図14参照)、及び、センサ配置柔軟部材45の両端を接続した環状状態(図15参照)を有している。また、直線状状態において、センサ間接続線保護部49を取り付けた状態を図13に、センサ間接続線保護部49を取り外した状態を図14に、それぞれ示す。なお、図13、図14においては、物体検知センサユニット41の一端部側のみを示している。
 図13に示すように、物体検知装置40は、物体検知センサユニット41、制御部17、及び、接続ハーネス19を有している。物体検知センサユニット41は、複数の物体検知センサ部43、センサ配置柔軟部材45、及び、センサ間接続線保護部49を有している。さらに、図14に示すように、物体検知センサユニット41は、複数のセンサ間接続線47を有している。
 図13に示すように、物体検知センサ部43は、センサ基板431、及び、ユニット配置部433を有している。センサ基板431は、回路基板であり、投光素子13a、投光レンズ13b、受光素子13c、及び、センサ用通信回路13d(以上、図2参照)を有している。
 ユニット配置部433の上面側から見た斜視図を図16に、下面側から見た斜視図を図17に、それぞれ示す。図16に示すように、ユニット配置部433は、ユニット保護筐体部433a、及び、センサ配置柔軟部材係止部433bを有している。ユニット保護筐体部433aは、センサ基板431を内部に収納するケースである。ユニット保護筐体部433aは、センサ基板配置用内部空間433a1、投光用開口433a2、及び、受光用開口433a3、及び、センサ間接続線用開口433a4を有している。なお、互いに接続された物体検知センサ部43のうち、端部に位置するものの一つは、さらに、ユニット保護筐体部433aに、制御部17に接続するための接続ハーネス19を接続するための接続ハーネス用開口433a5(図15参照)を有している。
 センサ基板配置用内部空間433a1は、センサ基板431を配置するための空間である。投光用開口433a2は、センサ基板配置用内部空間433a1に配置されたセンサ基板431における投光素子13a、投光レンズ13b(図2参照)の配置位置に対応して形成される。センサ基板431は、投光用開口433a2を介して、検知光を投光する。受光用開口433a3は、センサ基板配置用内部空間433a1に配置されたセンサ基板431における受光素子13c(図2参照)の配置位置に対応して形成される。センサ基板431は、受光用開口433a3を介して、投光した検知光の反射光を受光する。センサ間接続線用開口433a4は、センサ基板配置用内部空間433a1に配置されたセンサ基板431におけるセンサ用通信回路13d(図2参照)の配置位置に対応して形成される。センサ基板431は、センサ間接続線用開口433a4を介して、センサ間接続線47(後述)によって隣接する他のセンサ基板431と接続される。なお、ユニット保護筐体部433aの上面を、投光素子13aの投光面、受光素子13cの受光面と平行とすることによって、投光素子13aにおける検知光の投光、受光素子13cにおける反射光の受光、それぞれを阻害しないようにできる。
 センサ配置柔軟部材係止部433bは、ユニット保護筐体部433aの下部、つまり、ユニット保護筐体部433aの投光用開口433a2、受光用開口433a3が形成されている面とは反対側の面から突出するように形成されている。図17に示すように、センサ配置柔軟部材係止部433bは、断面L字状の凸形状を有している。センサ配置柔軟部材係止部433bは、2つを1組として、それぞれの断面L字状の端部が対向するように形成される。センサ配置柔軟部材係止部433bは、柔軟部材挿入空間433b1、及び、柔軟部材配置空間433b2を有している。柔軟部材挿入空間433b1は、センサ配置柔軟部材45を柔軟部材配置空間433b2に挿入するための空間である。柔軟部材配置空間433b2は、センサ配置柔軟部材45を配置するための空間である。柔軟部材配置空間433b2に配置されたセンサ配置柔軟部材45は、センサ配置柔軟部材係止部433bによって、ユニット保護筐体部433aに固定される。
 センサ配置柔軟部材45は、物体検知センサ部43、及び、センサ間接続線保護部49を直線状に保持し、両者を一体とする。センサ配置柔軟部材45は、柔軟性を有する帯状物である。センサ配置柔軟部材45としては、例えば、両ファスナーが用いられる。
 なお、センサ配置柔軟部材45の一つの端部45T1(図13参照)と、他の端部45T2(図示せず)とを結合することによって、図15に示すように、物体検知センサユニット41を環状状態とし、取付対象、例えば産業用ロボットのアームに巻き付けて固定する。取付対象の大きさ、検知範囲等の条件によって、センサ配置柔軟部材45の長さや、センサ配置柔軟部材45に取り付ける物体検知センサ部43の数、隣接する物体検知センサ部43の間隔(ピッチ)を調整する。
 図14に示すように、センサ間接続線47は、隣接するセンサ基板431をカスケード接続するための電気的接続線である。センサ間接続線47は、柔軟性を有し、物体検知センサ部43の位置的ずれを吸収する。センサ間接続線47は、センサ配置柔軟部材45に沿って配置される。なお、図14において、センサ間接続線47は、直線状に記載されているが、ある程度の余裕、または、蛇腹状等によってある程度の冗長性を有しているものである。
 センサ間接続線保護部49の上面側から見た斜視図を図18に、下面側から見た斜視図を図19に、それぞれ示す。図18に示すように、センサ間接続線保護部49は、センサ間接続線被覆部49a、及び、センサ配置柔軟部材係止部49bを有している。センサ間接続線被覆部49aは、センサ基板431間を接続しているセンサ間接続線47を覆うように、つまり、センサ間接続線47の上部に形成される。センサ配置柔軟部材係止部49bは、センサ間接続線被覆部49aの下部から突出するように形成されている。センサ配置柔軟部材係止部49bは、断面L字状の凸形状を有している。センサ配置柔軟部材係止部49bは、2つを1組として、それぞれの断面L字状の端部が対向するように形成される。
 センサ間接続線保護部49は、柔軟部材挿入空間49b1、及び、センサ間接続線・柔軟部材配置空間49b2を有している。柔軟部材挿入空間49b1は、センサ間接続線47、センサ配置柔軟部材45をセンサ間接続線・柔軟部材配置空間49b2に挿入するための空間である。センサ間接続線・柔軟部材配置空間49b2は、センサ間接続線47、及び、センサ配置柔軟部材45を配置するための空間である。センサ間接続線・柔軟部材配置空間49b2に配置されたセンサ間接続線47は、センサ間接続線被覆部49aによって保護される。これによって、センサ間接続線47が外部からの力によって損傷を受けることを防止できる。センサ間接続線・柔軟部材配置空間49b2に配置されたセンサ配置柔軟部材45は、センサ配置柔軟部材係止部49bによって、センサ間接続線保護部49に固定される。
 また、センサ間接続線保護部49は、センサ基板431間を接続する各センサ間接続線47に対応して形成されるため、センサ配置柔軟部材45の柔軟性を毀損することがない。
 前述の実施例4にかかる物体検知装置40では、センサ間接続線保護部49は、センサ基板431間を接続するセンサ間接続線47毎に形成される一方、本実施例にかかる物体検知装置50では、複数のセンサ間接続線47を一体として被覆するものである。なお、以下においては、実施例4と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 ハードウェア構成
 物体検知装置50のハードウェア構成について、図20を用いて説明する。物体検知装置50は、物体検知センサユニット51、制御部17、及び、接続ハーネス19を有している。
 物体検知センサユニット51は、複数の物体検知センサ部43、センサ配置柔軟部材45(図22参照)、センサ間接続線47(図22参照)、及び、センサ間接続線保護部59を有している。センサ間接続線保護部59は、中空円筒形状を有している。センサ間接続線保護部59は、第1筐体591、第2筐体592、及び、ヒンジ部593を有している。第1筐体591、及び、第2筐体592は、それぞれ、ヒンジ部593を中心に矢印R21方向、矢印R22方向に回転させることによって、中空円筒形状の内部空間に、物体検知センサ部43等を配置する。
 第1筐体591、及び、第2筐体592は、それぞれ、中空円筒形状を軸に沿って分割した中空半円筒形状を有している。第1筐体591と第2筐体592とは、ヒンジ部593とは異なる端部において互いに係合し、一体となるように構成されている。
 第1筐体591の一つの端部591d、及び、第2筐体592の一つの端部592dを取り除いた状態を図21に示す。第1筐体591は、センサ間接続線被覆部591a、中空円筒形状の端面に沿った端部591b、中空円筒形状の内周面に沿った内周部591c、及び、端部591bに対向して位置する端部591dを有している。なお、端部591bと内周部591cとは一体として形成されている。また、一体として形成された端部591b及び内周部591cに対して、センサ間接続線被覆部591a、及び、端部591dが嵌合することによって、第1筐体591が形成される。第2筐体592についても同様である。
 図21に示す第1筐体591からセンサ間接続線被覆部591aを、第2筐体592からセンサ間接続線被覆部592aを、それぞれ取り除いた状態を図22に示す。図21、及び、図22から明らかなように、センサ間接続線被覆部591a、592aは、センサ基板431(図13参照)間を接続しているセンサ間接続線47を覆う位置に形成される。
 また、図21に示すセンサ間接続線保護部59から、物体検知センサ部43、センサ配置柔軟部材45、及び、センサ間接続線47を取り除いた状態を図23に示す。センサ間接続線被覆部591aは、2分割された環状構造を有している。センサ間接続線被覆部591aは、物体検知センサ部43を配置するためのセンサ配置用開口591a1を有している。センサ間接続線被覆部591aのうち、センサ配置用開口591a1が形成されていない部分が、センサ間接続線47を覆う位置に対応し、センサ間接続線47を保護する機能を有する。
 なお、センサ間接続線被覆部591aと内周部591cとによって形成される内部空間に物体検知センサ部43が配置される。また、センサ配置用開口591a1と物体検知センサ部43とが係合することによって、センサ間接続線被覆部591aに対する物体検知センサ部43の位置が固定される。以上は、第2筐体についても同様である。
 このように、中空円筒形状のセンサ間接続線保護部59を用いることによって、センサ間接続線47に対して外部から力が作用することを防止できる。つまり、センサ間接続線47の破損を防止できる。また、センサ間接続線保護部59では、取付対象に取り付ける前に、物体検知センサユニット51の形状を固定できるため、取付対象に、容易に取り付けることができる。
 なお、図24に示すように、センサ間接続線保護部59は、投光素子13a、受光素子13cからセンサ間接続線被覆部591aの外周面までの距離L1は、物体検知センサ部43において予め設定された検知領域R13、及び、物体検知センサ部43において予め設定された受光範囲R14等、センサの計測性能を阻害しない距離とする。一般的には、投光素子13a、受光素子13cからセンサ間接続線被覆部591aの外周面までの距離L1は短く、例えば、センサ間接続線保護部59の厚さを薄くするようにすればよい。第2筐体592についても、同様である。
 前述の実施例5にかかる物体検知装置50では、ユニット配置部433を有する物体検知センサ部43をセンサ間接続線保護部59内に配置するものであった。一方、本実施例にかかる物体検知装置60では、ユニット配置部433を有さない物体検知センサ部63をセンサ間接続線保護部69内に配置するものである。なお、以下においては、実施例1?実施例5と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 ハードウェア構成
 物体検知装置60のハードウェア構成について、図25を用いて説明する。物体検知装置60は、物体検知センサユニット61、制御部17、及び、接続ハーネス19を有している。
 物体検知センサユニット61は、複数の物体検知センサ部63、センサ間接続線67(図27参照)、及び、センサ間接続線保護部69を有している。センサ間接続線保護部69は、中空円筒形状を有している。センサ間接続線保護部69は、第1筐体691、第2筐体692、及び、ヒンジ部593を有している。第1筐体691、及び、第2筐体692は、それぞれ、ヒンジ部593を中心に矢印R31方向、矢印R32方向に回転し、中空円筒形状の内部空間に物体検知センサ部63、センサ配置柔軟部材65を挿入するための空間を形成する。
 第1筐体691、及び、第2筐体692は、それぞれ、中空円筒形状を軸に沿って分割した形状を有している。第1筐体691と第2筐体692とは、ヒンジ部593とは異なる端部において互いに係合し、一体となるように構成されている。
 第1筐体691の一つの端部691d、及び、第2筐体692の一つの端部692dを取り除いた状態のセンサ間接続線保護部69を図26に示す。第1筐体691は、センサ間接続線被覆部691a、中空円筒形状の端面に沿った端部691b、中空円筒形状の内周面に沿った内周部691c、及び、端部691bに対向して位置する端部691d(図26に図示せず、図25参照)を有している。なお、端部691bと内周部691cとは一体として形成されている。また、一体として形成された端部691b及び内周部691cに対して、センサ間接続線被覆部691a、及び、端部691dが嵌合することによって、第1筐体691が形成される。
 センサ間接続線被覆部691aは、物体検知センサ部63の投光素子13aにおける検知光の投光を阻害しないように投光用開口691a1、及び、受光素子13cにおける反射光の受光を阻害しないように受光用開口691a2を有している。
 物体検知センサ部63は、センサ間接続線被覆部691aと内周部691cとによって形成される内部空間に配置される。
 図26に示す第1筐体691からセンサ間接続線被覆部691aを取り除いた状態を図27に示す。図27に示すように、物体検知センサ部63は、回路基板であり、センサ基板631、投光素子13a、投光レンズ13b(図示せず、図2参照)、受光素子13c、及び、センサ用通信回路13dを有している。
 また、隣接するセンサ基板631は、センサ間接続線67によって接続されている。なお、センサ間接続線67は、物体検知センサ部63のセンサ用通信回路13dに接続され、隣接する物体検知センサ部63を電気的に接続する機能を有するとともに、柔軟性を有し、取り付ける対象物であるセンサ基板631隣接するもの同士を物理的に接続する機能も有する。
 なお、図25、及び、図27から明らかなように、センサ間接続線被覆部691aは、物体検知センサ部63(図27参照)を覆う位置に形成されるとともに、センサ間接続線67を覆う位置にも形成されている。センサ間接続線被覆部691aのうち、物体検知センサ部63を覆う位置以外の部分が、センサ間接続線67を保護する機能を有する。センサ間接続線被覆部691aの物体検知センサ部63(図27参照)を覆う面を、投光素子13aの投光面、受光素子13cの受光面と平行とすることによって、投光素子13aにおける検知光の投光、受光素子13cにおける反射光の受光、それぞれを阻害しないようにできる。以上は、第2筐体についても同様である。
 このように、中空円筒形状のセンサ間接続線保護部69を用いることによって、センサ間接続線67に対して外部から力が作用することを防止できる。つまり、センサ間接続線67の破損を防止できる。また、センサ間接続線保護部69では、物体検知センサ部63を取付対象(例えば、産業用ロボット)に取り付ける前に、物体検知センサ部63の形状を円環状に固定できるため、取付対象に、容易に取り付けることができる。
 本発明に係る物体検知装置について、一実施例である図28に示す物体検知装置X10を例に説明する。物体検知装置X10は、所定の検知領域に物体が存在するか否かを検知し、物体の検知結果に基づき所定の動作をさせるものである。
第1 構成
 物体検知装置X10の構成について、図28を用いて説明する。物体検知装置10は、物体検知センサユニットX11、及び、制御部X19を有している。物体検知装置X10では、2つの物体検知センサユニットX11が対として、互いに対向するように配置される。一方の物体検知センサユニットX11から投光された検知光を、他方の物体検知センサユニットX11が受光するか否か判断することによって、物体を検知する。
 物体検知センサユニット11の外観を図29に示す。物体検知センサユニットX11は、筐体部X13、軸方向投光部X15(後述)、及び、軸方向受光部X17(後述)を有している。筐体部X13の内部には、軸方向投光部X15、及び、軸方向受光部X17が配置されている。筐体部X13は、薄い中空円筒形状を有している。
 筐体部X13は、第1筐体部131、第2筐体部132、及び、ヒンジ部133を有している。第1筐体部131、及び、第2筐体部132は、それぞれ、ヒンジ部133を中心に矢印A21方向、矢印A22方向に回転する。
 第1筐体部131、及び、第2筐体部132は、それぞれ、中空円筒形状を2つに分割した中空半円筒形状を有している。第1筐体部131と第2筐体部132とは、ヒンジ部133とは異なる端部において互いに係合し、一体となるように構成されている。
 第1筐体部131は、外周部131a、投受光用開口形成端部131b、投受光用開口形成端部131bに対向して位置する端部131c、及び、内周部131dを有している。なお、投受光用開口形成端部131b、端部131c、及び、内周部131dは一体として形成される。また、一体として形成された投受光用開口形成端部131b、端部131c、及び、内周部131dに対して、外周部131aが嵌合することによって、第1筐体部131が形成される。
 外周部131aは、中空円筒形状の外周面に対応する薄い円筒形状として形成される。
 投受光用開口形成端部131bは、中空円筒形状の一端面を閉じる円環形状の蓋として形成される。投受光用開口形成端部131bは、物体検知センサユニットX11が設置対象物、例えば、産業用ロボットのアームに設置された際に、設置対象物の表面の法線方向に対して交差する方向を法線方向N13とする端面P131bを有している。投受光用開口形成端部131bは、複数の投受光用開口R131aを有している。投受光用開口R131aは、所定間隔で形成されている。
 端部131cは、中空円筒形状の他の一端面を閉じる円環形状の蓋として形成される。端部131cは、外周部131a、内周部131dを介して、投受光用開口形成端部131bに対向して形成される。
 内周部131dは、中空円筒形状の内周面に対応する薄い円筒形状として形成される。
 以上は、第2筐体部132についても同様である。
 筐体部X13を用いることによって、物体検知センサユニットX11を、容易に、取り付け対象、例えば、産業用ロボットのアームに取り付けることができる。
 物体検知センサユニットX11の内部構造を図30に示す。図30には、図29に示す物体検知センサユニットX11から、筐体部X13の外周部131a、132aを取り除いた状態を示している。軸方向投光部X15は、所定の検知光、例えば近赤外線を投光する。軸方向投光部X15は、例えば、近赤外LED(Light Emitting Diode)等を用いて近赤外線を投光する。なお、軸方向投光部X15は、所定の投光レンズ等を用いて検知光を所定の範囲に投光する。
 軸方向受光部X17は、軸方向投光部X15から投光された検知光を受光する。軸方向受光部X17は、例えば、フォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を用いて、検知光を受光する。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を配置するようにしてもよい。
 軸方向投光部X15、及び、軸方向受光部X17は、それぞれ、所定の基板Sに配置される。基板Sは、所定のセンサ用通信線W末端の基板Sは、制御部接続線(図示せず)を用いて、制御部接続線用コネクタCを介して、制御部X19に接続される。
 軸方向投光部X15、及び、軸方向受光部X17は、交互に、筐体部X13の内部に配置される。また、軸方向投光部X15は、投光する検知光が筐体部X13の投受光用開口R131a、R132aから筐体部X13の外部に向かって投光できるように、投受光用開口R131a、R132aの位置に合わせて配置される。つまり、軸方向投光部X15は、検知光を端面P131bの法線方向N13、つまり、筐体部X13の軸方向に沿って検知光を投光する。なお、軸方向投光部X15は、制御部X19から、投光タイミング示す投光制御情報を取得し、適宜、検知光を投光する。
 軸方向受光部X17は、投光される検知光を筐体部X13の投受光用開口R131a、R132aを介して受光できるように、投受光用開口R131a、R132aの位置に合わせて配置される。つまり、軸方向受光部X17は、筐体部X13の軸方向に沿って投光された検知光を受光する。軸方向受光部X17は、検知光を受光したか否かの情報を検知情報として制御部X19へ送信する。また、軸方向受光部X17は、検知光の受光タイミングを示す受光制御情報を取得し、適宜、検知光を受光する。
 これにより、図28に示すように、互いに対向するように2つの物体検知センサユニットX11を、一方の物体検知センサユニットX11の軸方向投光部X15が投光した検知光を、他方の物体検知センサユニットX11の軸方向受光部X17が受光するように配置することによって、一方の物体検知センサユニットX11から他方の物体検知センサユニットX11までの軸方向に沿った領域に対して、物体を検知できる。例えば、物体検知センサユニットX11を産業用ロボットのアームに設置することによって、アームに沿った領域に対して、物体を検知できる。つまり、アームにより近い領域に対する物体を検知できる。
 図28に戻って、制御部X19は、物体検知センサユニットX11から検知情報を受信する。制御部X19は、受信した検知情報から、検知領域に物体が存在するか否かを判断する。また、制御部X19は、軸方向投光部X15に対して投光制御情報を、軸方向受光部X17に対して受光制御情報を、それぞれ送信する。
 制御部X19は、軸方向受光部X17が検知光を受光できなくなった、つまり、軸方向投光部X15から投光された検知光が遮断された場合に、何らかの物体が存在すると判断する。
 制御部X19のハードウェア構成について図31を用いて説明する。制御部19は、CPU19a、メモリ19b、センサ制御用通信回路19g、及び、動作制御用通信回路19hを有している。
 CPU19aは、メモリ19bに記録されているオペレーティング・システム(OS)、物体検知プログラム等その他のアプリケーションに基づいた処理を行う。メモリ19bは、CPU19aに対して作業領域を提供するとともに、オペレーティング・システム(OS)、物体検知プログラム等その他のアプリケーションのプログラム、及び、各種データを記録保持する。
 センサ制御用通信回路19gは、物体検知センサユニットX11の軸方向投光部X15、軸方向受光部X17と接続され、両者間での情報の送受信を行う。動作制御用通信回路19hは、物体検知センサユニットX11による物体の存在検知に基づき、動作を制御する対象に接続され、両者間での情報の送受信を行う。
第2 使用例
 物体検知装置X10の使用例として、産業用ロボットの外表面に配置した状態を図32に示す。産業用ロボットRBTは、3軸の可動軸を有するロボットである。産業用ロボットRBTは、アームAM11~AM15を有している。アームAM1、AM3の各外周の表面に沿って、物体検知装置X10(図28参照)の一対の物体検知センサユニットX11が取り付けられている。なお、一方の物体検知センサユニットX11の軸方向投光部X15が投光した検知光は、他方の物体検知センサユニットX11の軸方向受光部X17で受光されるように、それぞれの物体検知センサユニットX11の取り付け位置が調整されている。一対の物体検知センサユニットX11は、制御部X19(図28参照)に接続されている。また、制御部X19は、産業用ロボットRBTのアームAM11~AM15を動作させる動力源(図示せず)に接続されている。なお、一対の物体検知装置X11を設置する際には、ヒンジ部133の位置を合わせることによって、それぞれの軸方向投光部X15と軸方向受光部X17との位置を合わせることができる。
 このように、物体検知センサユニットX11を設置対象物の表面に容易に取り付けできるので、産業用ロボットの表面近くに人等の物体を検出したときにロボットを緊急停止させる安全システムを容易に構築できる。つまり、設置対象物、例えば産業用ロボットの安全性を容易に構築できる。
 また、複数の軸方向投光部X15、軸方向受光部X17を一体として取り付けることができるため、持ち運び等、容易に取り扱うことができる。
 さらに、物体検知センサユニットX11を取り付けるアームAM1~AM3等の間に障害物があったとしても、取り付ける物体検知センサユニットX11の数を調整することにより、障害物を回避できる。このように、物体検知装置X10では、取り付ける物体の形状にかかわらず、自由に物体検知センサユニットX11を取り付けることができる。
 前述の実施例7にかかる物体検知装置X10においては、対となる物体検知センサユニットX11を所定間隔で対向して配置し、一方の物体検知センサユニットX11が投光した検知光を、他方の物体検知センサユニットX11が受光するか否かで、物体を検知した。一方、本実施例にかかる物体検知装置X20においては、物体検知センサユニットX21が投光した検知光を、自身が受光するか否かで、物体を検知するものである。なお、以下においては、実施例7と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 構成
 物体検知装置X20の構成について、図33を用いて説明する。物体検知装置X20は、物体検知センサユニットX21、制御部X19、及び、反射部X200を有している。物体検知センサユニットX21は、自らが投光した検知光を、反射部X200で反射させ、反射部X200で反射した検知光を受光するか否か判断することによって、物体を検知する。
 物体検知センサユニットX21の外観を図34に示す。物体検知センサユニットX21は、筐体部X23、軸方向投光部X15(図35参照)、及び、軸方向受光部X17(図35参照)を有している。筐体部X23の内部には、軸方向投光部X15、及び、軸方向受光部X17が配置されている。筐体部X23は、薄い中空円筒形状を有している。
 筐体部X23は、第1筐体部231、第2筐体部232、及び、ヒンジ部133を有している。第1筐体部231、及び、第2筐体部232は、それぞれ、ヒンジ部133を中心に矢印A71方向、矢印A72方向に回転する。
 第1筐体部231、及び、第2筐体部232は、それぞれ、中空円筒形状を2つに分割した中空半円筒形状を有している。第1筐体部231と第2筐体部232とは、ヒンジ部133とは異なる端部において互いに係合し、一体となるように構成されている。
 第1筐体部231は、外周部131a、投受光用開口形成端部231b、端部131c、及び、内周部131dを有している。なお、投受光用開口形成端部231b、端部131c、及び、内周部131dは一体として形成される。また、一体として形成された投受光用開口形成端部231b、端部131c、及び、内周部131dに対して、外周部131aが嵌合することによって、第1筐体部231が形成される。
 投受光用開口形成端部231bは、中空円筒形状の一端面を閉じる円環形状の蓋として形成される。投受光用開口形成端部231bは、物体検知センサユニットX21が設置対象物、例えば、産業用ロボットのアームに取り付けられた際に、取付対象の表面の法線方向に対して交差する方向を法線方向N13とする端面P231bを有している。
 投受光用開口形成端部231bは、複数の投光用開口R231a、及び、複数の受光用開口R231bを有している。1つの投光用開口R231aと1つの受光用開口R231bとが対をなして、互いに隣接して形成される。1対の投光用開口R231a、及び、受光用開口R231bは、所定間隔で形成されている。以上は、第2筐体部232についても同様である。
 筐体部X23を用いることによって、物体検知センサユニットX21を、容易に、取り付け対象、例えば、産業用ロボットのアームに取り付けることができる。
 物体検知センサユニットX21の内部構造を図35に示す。図35には、図34に示す物体検知センサユニットX21から筐体部X23の外周部131a、232(図示せず)aを取り除いた状態を示している。軸方向投光部X15は、所定の検知光、例えば近赤外線を投光する。軸方向投光部X15は、例えば、近赤外LED(Light Emitting Diode)等を用いて近赤外線を投光する。なお、軸方向投光部X15は、所定の投光レンズ等を用いて検知光を所定の範囲に投光する。
 軸方向受光部X17は、軸方向投光部X15から投光された検知光を受光する。軸方向受光部X17は、例えば、フォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を用いて、検知光を受光する。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を配置するようにしてもよい。
 軸方向投光部X15、及び、軸方向受光部X17は、交互に、筐体部X13の内部に配置される。また、軸方向投光部X15は、投光する検知光が筐体部X23の投光用開口R231a、R232aから筐体部X23の外部に向かって投光できるように、投光用開口R231a、R232aの位置に合わせて配置される。つまり、軸方向投光部X15は、検知光を筐体部X23の軸方向に沿って検知光を投光する。なお、軸方向投光部X15は、制御部X19から、投光タイミング示す投光制御情報を取得し、適宜、検知光を投光する。
 軸方向受光部X17は、投光された検知光の反射光を筐体部23の受光用開口R231b、R232bを介して受光できるように、受光用開口R231b、R232bの位置に合わせて配置される。つまり、軸方向受光部X17は、対をなす軸方向投光部X15から筐体部X23の軸方向に沿って投光され、反射部X200で反射し、筐体部X23の軸方向に沿って反射してきた検知光を受光する。軸方向受光部X17は、検知光を受光したか否かの情報を検知情報として制御部X19へ送信する。また、軸方向受光部X17は、対となる軸方向投光部X15が投光した検知光を受光できる受光タイミングを示す受光制御情報を取得し、適宜、検知光を受光する。
 図33に戻って、制御部X19は、物体検知センサユニットX21から検知情報を受信する。制御部X19は、受信した検知情報から、検知領域に物体が存在するか否かを判断する。また、制御部X19は、投光を開始させる投光制御情報を、各軸方向投光部X15に対して、順次、送信する。また、制御部X19は、受光を開始する受光制御情報を、投光制御情報を送信した軸方向投光部X15と対をなす軸方向受光部X17に対して、対をなす軸方向投光部X15が投光した検知光の反射光を受光できるように送信する。
 制御部X19は、軸方向受光部X17が検知光を受光しなかった、つまり、軸方向投光部X15から投光された検知光の反射光を受光しなかった場合に、何らかの物体が存在すると判断する。
 反射部X200は、物体検知センサユニットX21の筐体部X23と同様の構成を有している。ただし、反射部X200は、投受光用開口形成端部231b、232bに、投光用開口R231a、R232a、受光用開口R231b、R232bを有さず、端部131c、132cと同様の構成となっている。また、反射部X200は、内部に、軸方向投光部X15、軸方向受光部X17等の内部回路を有していない。
 図33に示すように、物体検知センサユニットX21と反射部X200とを、物体検知センサユニットX21の軸方向投光部X15が投光した検知光を、反射部X200で反射させ、反射した検知光を物体検知センサユニットX21の軸方向受光部X17が受光するように、互いに対向するように取り付けることによって、物体検知センサユニットX21から反射部X200までの軸方向に沿った領域に対して、物体を検知できる。例えば、物体検知センサユニットX21を産業用ロボットのアームに設置することによって、アームに沿った領域に対して、物体を検知できる。つまり、アームにより近い領域に対する物体を検知できる。
第2 使用例
 物体検知装置X20の使用例として、産業用ロボットRBTの外表面に配置した状態を図36に示す。アームAM11、AM13の各外周の表面に沿って、物体検知装置X20(図28参照)の物体検知センサユニットX21、及び、反射部X200が取り付けられている。物体検知センサユニットX21の軸方向投光部15が投光した検知光は、反射部X200で反射されるように、それぞれの取り付け位置が調整されている。物体検知センサユニットX21は、制御部X19(図33参照)に接続されている。また、制御部X19は、産業用ロボットRBTのアームAM11~AM15を動作させる動力源(図示せず)に接続されている。
 このように、物体検知センサユニットX21を設置対象物の表面に容易に取り付けできるので、産業用ロボットの近くに人等の物体を検出したときにロボットを緊急停止させる安全システムを容易に構築できる。つまり、設置対象物、例えば産業用ロボットの安全性を容易に構築できる。
 また、複数の軸方向投光部X15、軸方向受光部X17を一体として取り付けることができるため、持ち運び等、容易に取り扱うことができる。
 さらに、物体検知センサユニットX21を取り付けるアームAM1~AM3等の間に障害物があったとしても、取り付ける物体検知センサユニットX21、反射部X200の数を調整することにより、障害物を回避できる。このように、物体検知装置X20では、取り付ける物体の形状にかかわらず、自由に物体検知センサユニットX21を取り付けることができる。
 さらに、物体検知センサユニットX21では、予め想定されている使用範囲では、軸方向投光部X15及び軸方向受光部X17における検知光の投受光の位置が調整されているため、検知光の投受光調整が必要なため、より簡単に物体検知センサユニットX21を設置対象物に取り付けることができる。
 前述の実施例8にかかる物体検知装置X20においては、物体検知センサユニットX21の軸方向に沿って、物体を検知するものであった。一方、本実施例にかかる物体検知装置X30においては、軸方向沿って検知するだけでなく、軸からの放射方向にも物体を検知するものである。なお、以下においては、実施例7、実施例8と同様の構成については、同様の符号を付し、また、詳細な説明を省略する。
第1 構成
 物体検知装置X30の構成については、実施例8(図33参照)と同様である。物体検知装置X30は、物体検知センサユニットX21に代わる物体検知センサユニットX31、及び、制御部X19、反射部X200を有している。物体検知センサユニットX31は、軸方向に対しては、自らが投光した検知光を、反射部X200で反射させ、反射部X200で反射した検知光を受光するか否か判断することによって物体を検知するとともに、軸に対する放射方向には、自らが投光した検知光を受光するか否か判断することによって物体を検知する。
 物体検知センサユニットX31の外観を図37に示す。物体検知センサユニットX31は、筐体部X33、軸方向投光部X15(図38参照)、軸方向受光部X17(図38参照)、放射方向投光部X35(図38参照)、及び、放射方向受光部X37(図38参照)を有している。筐体部X33の内部には、軸方向投光部X15、軸方向受光部X17、放射方向投光部X35、放射方向受光部X37が配置されている。筐体部X33は、薄い中空円筒形状を有している。
 筐体部X33は、第1筐体部331、第2筐体部332、及び、ヒンジ部133を有している。第1筐体部331、及び、第2筐体部332は、それぞれ、ヒンジ部133を中心に矢印A101方向、矢印A102方向に回転する。
 第1筐体部331、及び、第2筐体部332は、それぞれ、中空円筒形状を2つに分割した中空半円筒形状を有している。第1筐体部331と第2筐体部332とは、ヒンジ部133とは異なる端部において互いに係合し、一体となるように構成されている。
 第1筐体部331は、外周部331a、投受光用開口形成端部231b、端部131c、及び、内周部131dを有している。一体として形成された投受光用開口形成端部231b、端部131c、及び、内周部131dに対して、外周部331aが嵌合することによって、第1筐体部331が形成される。
 外周部331aは、中空円筒形状の外周面に対応する薄い円筒形状として形成される。外周部331aは、複数の放射方向投光用開口R331a、及び、複数の放射方向受光用開口R331bを有している。1つの放射方向投光用開口R331aと1つの放射方向受光用開口R331bとが対をなして、互いに隣接して形成される。1対の放射方向投光用開口R331a、及び、放射方向受光用開口R331bは、所定間隔で形成されている。以上は、第2筐体部332についても同様である。
 物体検知センサユニットX31の内部構造を図38に示す。図38には、図37に示す物体検知センサユニットX31から筐体部X33の外周部331a、332a(図示せず)を取り除いた状態を示している。放射方向投光部X35は、軸方向投光部X15と同様に、所定の検知光、例えば近赤外線を投光する。軸方向投光部X15は、例えば、近赤外LED(Light Emitting Diode)等を用いて近赤外線を投光する。なお、放射方向投光部X35は、所定の投光レンズ等を用いて検知光を所定の範囲に投光する。
 放射方向受光部X37は、放射方向受光部X17と同様に、放射方向投光部X35から投光された検知光の反射光を受光する。放射方向受光部X37は、例えば、フォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を用いて、検知光を受光する。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を配置するようにしてもよい。
 対となる放射方向投光部X35、及び、放射方向受光部X37は、所定間隔で、筐体部X33の内部に配置される。また、放射方向投光部X35は、投光する検知光が筐体部X33の放射方向投光用開口R331a、R332aから筐体部X33の軸に対する放射方向、外部に向かって投光できるように、放射方向投光用開口R331a、R332aの位置に合わせて配置される。つまり、放射方向投光部X35は、検知光を筐体部X33の軸に対して放射方向に検知光を投光する。なお、放射方向投光部X35は、制御部X19から、投光タイミング示す投光制御情報を取得し、適宜、検知光を投光する。
 放射方向受光部X37は、放射方向投光部X35から投光された検知光の反射光を筐体部X33の放射方向受光用開口R331b、R332bを介して受光できるように、放射方向受光用開口R331b、R332bの位置に合わせて配置される。つまり、放射方向受光部X37は、対をなす放射方向投光部X35から筐体部X33の軸に対する放射方向に投光され、物体によって、筐体部X33の軸に対する放射方向に沿って反射してきた検知光を受光する。放射方向受光部X37は、検知光を受光したか否かの情報を検知情報として制御部X19へ送信する。また、放射方向受光部X37は、対となる放射方向投光部X35が投光した検知光を受光できる受光タイミングを示す受光制御情報を取得し、適宜、検知光を受光する。
 なお、物体検知装置X30の制御部X19は、物体検知センサユニットX31から検知情報を受信する。制御部X19は、受信した検知情報から、物体検知センサユニットX31の軸方向に沿う検知領域に物体が存在するか否か、また、物体検知センサユニットX31の軸に対する放射方向の検知領域に物体が存在するか否か、を判断する。また、制御部X19は、投光を開始させる投光制御情報を、各軸方向投光部X15、放射方向投光部X35に対して、順次、送信する。また、制御部X19は、受光を開始する受光制御情報を、投光制御情報を送信した軸方向投光部X15と対をなす軸方向受光部X17に対して、対をなす軸方向投光部X15が投光した検知光の反射光を受光できるように送信する。
 制御部X19は、軸方向受光部X17が検知光を受光しなかった、つまり、軸方向投光部X15から投光された検知光の反射光を受光しなかった場合に、取付対象の近くに何らかの物体が存在すると判断する。また、制御部X19は、放射方向受光部X37が検知光を受光した、つまり、放射方向投光部X35から投光された検知光の反射光を受光した場合に、何らかの物体が放射方向に存在すると判断する。
 本発明に係る物体検知装置について、図44に示す物体検知装置100を例に説明する。図44においては、物体検知装置100を、産業用ロボットRBTを設置対象物として設置した状態を示している。物体検知装置100は、所定の設置対象物に設置し、設置対象物等、検知する必要がない検知対象物を誤検知することなく、周囲に物体が存在するか否かを検知するものである。
第1 ハードウェア構成
 物体検知装置100のハードウェア構成について、図44を用いて説明する。物体検知装置100は、物体検知センサユニット110、制御部170、及び、接続ハーネス190を有している。物体検知センサユニット110は、産業用ロボットRBTのアームに取り付けられる。物体検知センサユニット110は、接続ハーネスを介して、制御部170に接続される。
 制御部170は、物体検知センサユニット110の動作を制御するとともに、物体検知センサユニット110から取得する検知情報に基づき、設置対象物である産業用ロボットRBTの動作を制御する。
1.物体検知センサユニット110
 物体検知センサユニット110の構成について、図45~図49を用いて説明する。図45に、物体検知センサユニット110の外観斜視図を示す。図46に、図45に示す物体検知センサユニット110から、一部を取り除いた状態を示す。図47に、図46に示す物体検知センサユニット110から、筐体部119(後述)の内部空間に配置される構成物を取り除いた状態を示す。
 図45及び図46に示すように、物体検知センサユニット110は、1つの第1物体検知センサ部111、複数の第2物体検知センサ部113、センサ間接続線117、及び、筐体部119を有している。第1物体検知センサ部111、及び、第2物体検知センサ部113は、センサ間接続線117によってカスケード接続され、筐体部119の内部に配置される。
(1)第1物体検知センサ部111
 第1物体検知センサ部111の構成について図48を用いて説明する。物体検知センサ部111は、投光素子111a、投光レンズ111b、受光素子111c、センサ用通信インターフェイス111d、センサ制御部111e、制御部用通信インターフェイス111f、及び、加速度センサ111g有している。
 投光素子111aは、所定の検知光、例えば近赤外線を投光する。投光レンズ111bは、投光素子111aが投光した検知光を所定の範囲(検知領域R111)に拡散する。なお、投光レンズ111bについては、レンズの形状や特性を、適宜、選択することによって、物体検知センサユニット110を配置する対象である産業用ロボット等の配置対象物を誤検知することがないように調整しておいてもよい。投光素子111aとしては、例えば近赤外LED(Light Emitting Diode)等を利用することができる。
 受光素子111cは、投光素子111aが投光した検知光の物体による反射光を受光する。受光素子111cとしては、例えばフォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を用いることができる。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を、受光素子111cと合わせて配置するようにしてもよい。
 センサ用通信インターフェイス111dは、隣接する第2物体検知センサ部113のセンサ用通信インターフェイス113dと接続され、第1物体検知センサ部111と第2物体検知センサ部113とが通信できるようにする。
 センサ制御部111eは、制御部170からセンサ制御情報を取得し、投光素子111a、受光素子111cによる物体検知を制御し、物体検知情報を制御部170へ送信する。また、センサ制御部111eは、加速度センサ部111gから取得する移動情報を制御部へ送信する。
 制御部用通信インターフェイス111fは、制御部170のセンサ制御用通信回路170g(図50参照)と接続され、制御部170と第1物体検知センサ部111とが、つまり、物体検知センサユニット110と制御部170とが、通信できるようにする。なお、各物体検知センサユニット110の第1物体検知センサ部111の制御部用通信インターフェイス111fは、直接的にパラレルに制御部170に接続される。このため、複数の物体検知センサユニット110は、それぞれパラレルに、制御部170に接続される。
 加速度センサ部111gは、3軸加速度センサを有している。3軸加速度センサは、所定の座標空間(X軸、Y軸、Z軸)において、各軸に沿う方向の加速度を計測し、移動情報を生成する。計測された加速度を2回積分することによって、各軸に沿った変位を算出できる。
(2)第2物体検知センサ部113
 第2物体検知センサ部113の構成について図49を用いて説明する。物体検知センサ部113は、投光素子113a、投光レンズ113b、受光素子113c、センサ用通信インターフェイス113d、及び、センサ制御部113eを有している。なお、投光素子113a、投光レンズ113b、受光素子113c、センサ用通信インターフェイス113d、及び、センサ制御部113eは、第1物体検知センサ部111の投光素子111a、投光レンズ111b、受光素子111c、センサ用通信インターフェイス111d、及び、センサ制御部111eと同様であるため詳細な記述を省略する。
(3)センサ間接続線117
 図46に示すように、センサ間接続線117は、隣接する第1物体検知センサ部111と第2物体検知センサ部113との間、及び、隣接する2つの第2物体検知センサ部113の間を接続する。なお、センサ間接続線117は、第1物体検知センサ部111のセンサ用通信インターフェイス111d、第2物体検知センサ部113のセンサ用通信インターフェイス113dに接続され、隣接する第1物体検知センサ部111、第2物体検知センサ部113を電気的、及び、物理的に接続する。
(4)筐体部119
 図47に示すように、筐体部119は、中空円筒形状を有している。筐体部119は、第1筐体部1191、第2筐体部1192、及び、ヒンジ部1193を有している。第1筐体部1191、及び、第2筐体部1192を、それぞれ、ヒンジ部1193を中心に矢印R31方向、矢印R32方向に回転させ、一端を開放することによって、物体検知センサユニット110を取付対象物に取り付ける。
 第1筐体部1191、及び、第2筐体部1192は、それぞれ、中空円筒形状の長軸J119、及び、ヒンジ部1193の回転軸J1193を含む面に沿って中空円筒形状を分割した半中空円筒形状を有している。なお、半中空円筒形状を有する第1筐体部1191、及び、第2筐体部1192は、ヒンジ部1193とは異なる端部において互いに係合して、一体となり、中空円筒形状を形成する。
 第1筐体部1191は、外周部1191a、中空円筒形状の端面に沿った端部1191b、中空円筒形状の内周面に沿った内周部1191c、及び、端部1191bに対向して位置する端部1191dを有している。なお、外周部1191a、端部1191b、及び、内周部1191cとは一体として形成されている。また、一体として形成された外周部1191a、端部1191b、及び、内周部1191cに対して、端部1191dが嵌合することによって、第1筐体部1191が形成される。
 外周部1191aは、第2物体検知センサ部113の投光素子113aの検知光の投光を阻害せず、また、第2物体検知センサ部113の受光素子113cの反射光の受光を阻害しないような大きさ、形状を有する投受光用開口1191a1を、第2物体検知センサ部113の投光素子113a及び受光素子113cに対応する位置に有している。
 以上は、第2筐体部1192についても同様である。なお、第2筐体部1192の外周部1192a(図示せず)は、第2物体検知センサ部113の投光素子113a、及び、受光素子113cに対応する位置に加えて、第1物体検知センサ部111の投光素子111a、及び、受光素子111cに対応する位置に、投受光用開口1192a1(図示せず)を有している。
 このように、ヒンジ部1193を中心に、第1筐体部1191、第2筐体部1192を左右に開いて、所定の取り付け対象、例えば、産業用ロボットのアームの外周に沿って配置し、第1筐体部1191、第2筐体部1192を閉じるだけで、簡単に、物体検知センサユニット110を取り付けることができる。
2.制御部170
 制御部170のハードウェア構成について図50を用いて説明する。制御部170は、CPU170a、メモリ170b、センサ制御用通信回路170g、及び、動作制御用通信回路170hを有している。
 CPU170aは、メモリ170bに記録されているオペレーティング・システム(OS)、検知領域調整プログラム等その他のアプリケーションに基づいた処理を行う。メモリ170bは、CPU170aに対して作業領域を提供するとともに、オペレーティング・システム(OS)、検知領域調整プログラム等その他のアプリケーションのプログラム、及び、各種データを記録保持する。
 センサ制御用通信回路170gは、物体検知センサユニット110の第1物体検知センサ部111に配置される制御部用通信インターフェイス111f(図48参照)と接続ハーネス190(図44参照)を介して接続され、両者間での情報の送受信を行う。なお、センサ制御用通信回路170gは、各物体検知センサユニット110と、直接的に、つまり、パラレルに接続される。動作制御用通信回路170hは、物体検知センサユニット110による物体の存在検知に基づき、動作を制御する制御対象、例えば産業用ロボットRBTに接続され、両者間での情報の送受信を行う。
3.接続ハーネス190
 図44に示すように、接続ハーネス190は、各物体検知センサユニット110の第1物体検知センサ部111の制御部用通信インターフェイス111fと、制御部170のセンサ制御用通信回路170gとを接続し、各物体検知センサユニット110と制御部170とを直接的に接続する。
第2 制御部170における検知領域調整処理
 制御部170のCPU170aが検知領域調整プログラムに基づき実施する検知領域調整処理について、物体検知装置100を産業用ロボットの外表面に配置した場合を例に説明する。
1.設置対象物
 物体検知装置100の配置する設置対象物として、図51に示すような産業用ロボットRBTを設定する。産業用ロボットRBTは、3軸の回転軸を有するロボットである。産業用ロボットRBTは、アームAM1~AM7、土台B1、及び、作業端部H1を有している。
 アームAM1は、土台B1に配置され、自身の長軸方向に設定される回転軸RJ1を中心に回転運動する。アームAM3は、隣接するアームAM1と接続され、一つの端部に設定される回転軸RJ3を中心に、アームAM1に対して回転運動する。アームAM5は、隣接するアームAM3と接続され、一つの端部に設定される回転軸RJ5を中心に、アームAM3に対して回転運動する。アームAM7は、隣接するアームAM5と接続され、一つの端部に設定される回転軸RJ7を中心に、アームAM5に対して回転運動する。
 アームAM3、AM5、AM7の各外周面に物体検知装置100の物体検知センサユニット110が配置されている。アームAM3、AM5、AM7に配置されている6つの物体検知センサユニット110は、制御部170に接続される。また、制御部170は、産業用ロボットRBTの各アームAM1~AM7を動作させる動力機構(図示せず)に接続されている。制御部170は、動力機構の動作を制御することによって、アームAM1~AM7の動作を制御する。
 各物体検知センサユニット110は、各アームの外周に沿うように配置される。物体検知センサユニット110は、設置対象である装置の外表面に容易に配置できるので、産業用ロボットの周辺に人等の物体を検出したときにロボットを緊急停止させる安全システムを容易に構築できる。つまり、設置対象装置、例えば産業用ロボットの安全性を容易に構築できる。
2.初期設定情報
 検知領域調整処理を実施する前に、所定の初期設定値を設定しておく。まず、物体検知センサユニット110を取り付けた産業用ロボットRBTの初期状態を設定する。ここで、産業用ロボットRBTを、例えば、図51に示すように、土台B1、アームAM1~AM7、作業端部H1を有するものとする。
 土台B1は、産業用ロボットRBTを支持する。土台B1は、平坦な上面を有し、上面から上に突出するようにアームAM1が配置される。各アームAM1~AM7は、それぞれの長軸LJ1~LJ7(図55参照)に沿った円柱形状を有している。なお、各アームの長軸LJ1~LJ7は、図51においては、Z軸上に存在する。アームAM1には、土台B1と接続される端部とは異なる端部において、アームAM3が、回転軸RJ3を中心に回転できるように接続されている。なお、アームAM3の長軸LJ3と回転軸RJ3との交点を回転中心C3とする。アームAM5、AM7についても、同様である。アームAM7には、アームAM5と接続される端部とは異なる端部において、作業端部H1が接続されている。
 ここで、初期状態を、例えば、図51に示すような、最下位に位置するアームAM1の底面の中心を原点Oとして垂直方向にZ軸、底面内にX軸、Y軸を有する座標軸を設定し、各アームAM1~AM7が垂直に直線状に、つまり、アームAM1~AM7それぞれの長軸LJ1~LJ7がZ軸に沿って直線的に配置された状態に設定する。
 初期状態において、設定した座標軸における回転中心点C3~C7の位置(C3(0)~C7(0))、各回転中心点間の長さ(L1、L3、・・・)を初期設定情報の一部として、メモリ170bに記憶保持する。
 産業用ロボットRBTに取り付ける物体検知センサユニット110の中心から各投光素子までの半径R、隣接する第1物体検知センサ部111、第2物体検知センサ部113間の中心角度α、第1物体検知センサ部111の検知領域R111、第2物体検知センサ部113の検知領域R113の形状を円錐として特定する頂角θを初期設定情報の一部として、メモリ170bに記憶保持する。
 産業用ロボットRBTに物体検知センサユニット110を所定の位置に取り付ける。なお、産業用ロボットRBTには、アームAM3~AM7のそれぞれに2つの物体検知センサユニット110を取り付け、下方から順番に、物体検知センサユニット110_1、110_2、・・・とし、同様に、各物体検知センサユニット110の第1物体検知センサ部111についても、下方から順番に、第1物体検知センサ部111_1、111_2、・・・とする。
 産業用ロボットRBTを初期状態とした後、設定した座標軸における各物体検知センサユニット110の第1物体検知センサ部111の初期位置(P111_1(0)、P111_2(0)、・・・)を初期設定情報の一部として、メモリ170bに記憶保持する。
3.検知領域調整処理
 制御部170のCPU170aが検知領域調整プログラムに基づき実施する検知領域調整処理について、図52~図57に示すフローチャート、及び、図53を用いて説明する。
 図52に示すように、CPU170aは、物体検知装置100の動作開始後、各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113に対して、物体検知開始情報を送信する(S901)。物体検知開始情報については後述する。
 物体検知開始情報を取得する物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113の動作については後述する。
 CPU170aは、各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113からセンサ情報を取得する(S903)。センサ情報については後述する。
 CPU170aは、全ての物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113からセンサ情報を取得したと判断すると(S905)、移動情報を有している第1物体検知センサ部111に関するセンサ情報を抽出し(S907)、産業用ロボットRBTのその時点での形状を判断する形状推定処理を実施する(S909)。
 形状推定処理について、図53に示すフローチャート、及び、図55を用いて説明する。なお、図55には、産業用ロボットRBTの所定時間動作後の状態を示している。以降においては、複数存在する構成要素については、初期状態において下に位置するものから順に、サフィックス「_n(nは自然数)」を付加して特定する。例えば、初期状態において、下から2番目に位置する第1物体検知センサ部111については、第1物体検知センサ部111_2と表記する。なお、特に特定しない場合には、第1物体検知センサ部111_nと表記する。
 図53に示すように、CPU170aは、取得した移動情報から、第1物体検知センサ部111_n毎に、前の位置からの変位(m111_n(x):図55参照)を算出する(S1001)。次に、CPU170aは、第1物体検知センサ部111_n毎に、前の位置(P111_n(x-1):図55参照)に、算出した変位(m111_n(x))を加算し、現在の位置(P111_n(x):図55参照)算出する(S1003)。なお、現在の第1物体検知センサ部111_nの位置(P111_n(x))は、初期状態での第1物体検知センサ部111の位置(P111_n(0):図51参照)を用いて、演繹的に算出できる。
 次に、CPU170aは、初期状態において下側に位置するアームAM1から上側に位置するアームAM3、AM5、AM7へと、順番に、対象アームとして、以下の処理を実行する。
 CPU170aは、対象アームに物体検知センサユニット110が取り付けられていると判断すると(S1005)、対象アームについて、現在の下側の回転中心Cm(x)(m=3、5、7)から、第1物体検知センサ部111_nの現在の位置P111_n(x)へのベクトルが、現在の下側の回転中心Cm(x)を起点とする、初期状態における対象アームの下側の回転中心Cm(0)から第1物体検知センサ部111_nの位置P111_(0)へのベクトルを、現在の下側の回転中心Cmを通る回転軸RJmを中心に、回転させて一致させた回転角度r_n(x)を算出する(S1007)。
 例えば、アームAM3について、現在の下側の回転中心C3(x)から、第1物体検知センサ部111_2の現在の位置P111_2(x)へのベクトルが、現在の下側の回転中心C3(x)を起点とする、初期状態における対象アームの下側の回転中心C3(0)から第1物体検知センサ部111_nの位置P111_(0)へのベクトルを、現在の下側の回転中心C3(x)を通る回転軸RJ3を中心に、回転させて一致させた回転角度r_3(x)を算出する。なお、回転中心C3は移動しないため、現在の回転中心の位置C3(x)は、初期状態の回転中心C3の位置C3(0)(図51参照)となる。
 CPU170aは、算出した回転角度r_n(x)を用いて、対象アームの初期状態の長軸LJmを、対象アームの現在の下側の回転中心Cm(x)に移動して、回転角度r_n(x)だけ回転させて、現在の下側の回転中心Cm(x)を通る現在の長軸LJ_n(x)の位置を算出する(S1009)。そして、CPU170aは、対象アームの回転中心間距離(L3、L5、L7(図51参照))を用いて、上側の回転中心Cm(x)の位置を算出する(S1011)。
 CPU170aは、全てのアームに対して、ステップS1005~S1013の処理を実行する(S1013)。CPU170aは、算出した各アームの半径等を用いて、産業用ロボットRBTの現在の形状を算出する(S1015)。
 図52に戻って、CPU170aは、産業用ロボットRBTに対する形状推定処理を終了すると、検知領域調整情報生成処理を実行する(S911)。
 検知領域調整情報生成処理について、図54を用いて説明する。CPU170aは、各アームの第1物体検知センサ部111の位置、及び、各アームの長軸の位置から、物体検知センサユニット110毎に、第1物体検知センサ部111以外の第2物体検知センサ部113の位置を算出する(S1101)。CPU170aは、算出した第2物体検知センサ部113の位置、及び、算出した産業用ロボットRBTの形状から、各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113が形成する検知領域を算出する(S1103)。なお、検知領域は、図56に示すように、物体検知センサユニット110の中心から第1物体検知センサ部111、第2物体検知センサ部113の位置に向かって放射状に、つまり、産業用ロボットRBTの表面に垂直な方向に、形成される。
 CPU170aは、算出した検知領域と、形状推定処理(図53参照)において算出した産業用ロボットRBTの形状とが干渉するか否かを算出する(S1105)。例えば、図56に示すような形状にある産業用ロボットRBTでは、互いに対向する位置にあるアームAM3、アームAM7において、それぞれのアームに取りつけられている物体検知センサユニット110_2、110_5については、一部の第1物体検知センサ部111、及び/又は、第2物体検知センサ部113が形成する検知領域が、もう一方のアームと干渉すると判断する。
 ここで、図56に示す産業用ロボットRBTを、同図右側から見た状態を図57に示す。図57に示すように、互いに対向する位置にあるアームAM3、アームAM7において、アームAM3においては、対向する側の面F3に位置する第1物体検知センサ部111、及び/又は、第2物体検知センサ部113が形成する検知領域は、もう一方のアームAM7と干渉すると判断する。アームAM7についても同様に判断する。また、その他のアームについても同様に判断する。
 図55に戻って、CPU170aは、両者が干渉すると判断すると、干渉する第1物体検知センサ部111、又は、第2物体検知センサ部113についての検知領域調整情報を生成する(S1107)。
 ここで、検知領域調整情報について説明する。検知領域調整情報は、第1物体検知センサ部111、第2物体検知センサ部113のそれぞれの受光素子において反射光を受光するための受光待機期間を調整するための情報である。受光待機期間を調整することによって、実質的に検知光が届く領域、つまり、検知領域を限定できる。例えば、受光待機期間を所定の期間の30%の期間に短縮すると、取付対象物から距離が近い検知領域に限定し、アーム同士の干渉により反射する反射光を有効な検知としないようにできる。
 CPU170aは、全ての物体検知センサユニット110について、ステップS1101~S1107の処理を実行したと判断すると(S1209)、検知領域調整情報生成処理を終了する。
 図52に戻って、CPU170aは、検知領域調整情報生成処理を終了すると、所定のタイミングで、次の物体検知を開始する物体検知開始情報を生成する(S913)。
 ここで、物体検知開始情報について説明する。物体検知開始情報は、物体検知センサユニット110が有する第1物体検知センサ部111、第2物体検知センサ部113に物体検知を開始させるための情報である。物体検知開始情報を取得した第1物体検知センサ部111、第2物体検知センサ部113は、それぞれの投光素子、受光素子等を用いて、物体検知を開始する。物体検知開始情報は、各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113を特定するためのセンサ特定情報と関連づけられて生成される。また、検知領域を調整する必要があると判断される第1物体検知センサ部111、第2物体検知センサ部113については、ステップS1207で生成した検知領域調整情報とも関連づけられる。
 CPU170aは、所定時間になると(S915)、生成した物体検知開始情報を各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113へ送信する等、ステップS901~S915の処理を、動作終了まで繰り返す。
 なお、CPU170aは、ステップS903において、各物体検知センサユニット110の第1物体検知センサ部111、第2物体検知センサ部113からセンサ情報を取得し、その中のから検知結果情報を抽出し、抽出した検知結果情報が、物体を検知したことを示すものであった場合には、取付対象である産業用ロボットRBTの動作を停止させる停止信号を、産業用ロボットRBTへ送信する。
4.第1物体検知センサ部111の動作
 図57に示すように、物体検知センサユニット110の第1物体検知センサ部111のセンサ制御部111eは、制御部用通信インターフェイス111fを介して物体検知開始情報を取得すると(S1301)、取得した物体検知開始情報が自身に対応するものであるか否かを判断する(S1303)。センサ制御部111eは、自身に対する物体検知開始情報であると判断すると、物体検知開始情報が有する検知領域調整情報を抽出し(S1305)、抽出した検知領域調整情報に基づき、受光素子111cが検知光に対する反射光を受光する期間である受光待機期間を調整する(S1307)。
 センサ制御部111eは、投光素子111aを介して、検知光を投光する(S1309)。センサ制御部111eは、受光素子111cを介して反射光を受光するか否かを監視する。センサ制御部111eは、反射光を受光したと判断すると(S1311)、物体を検知した旨を示す検知結果情報を生成する(S1315)。センサ制御部111eは、加速度センサ部111gから測定した加速度を移動情報として取得する(S1317)。センサ制御部111eは、生成した検知結果情報、及び、移動情報を、自身を特定するセンサ特定情報とともにセンサ情報として、制御部170へ送信する(S1319)。
 一方、センサ制御部111eは、ステップS1309において検知光を投光してから、反射光を受光せずに所定の受光待機期間を経過したと判断すると(S1313)、物体を検知しなかった旨を示す検知結果情報を生成する(S1315)。センサ制御部111eは、加速度センサ部111gから測定した加速度を移動情報として取得する(S1317)。センサ制御部111eは、生成した検知結果情報、及び、移動情報を、自身を特定するセンサ特定情報とともにセンサ情報として、制御部170へ送信する(S1319)。
 また、センサ制御部111eは、ステップS1301において取得した物体検知開始情報が自身に対応するものでないと判断すると、取得した物体検知開始情報を、センサ用通信インターフェイス113dを介して、隣接する第2物体検知センサ部113へ送信する(S1321)。
 また、センサ制御部111eは、センサ用通信インターフェイス113dを介して、隣接する第2物体検知センサ部113から検知結果情報を取得すると、制御部用通信インターフェイス111fを介して、制御部170へ送信する。
5.第2物体検知センサ部113の動作
 図57に示すように、物体検知センサユニット110の第2物体検知センサ部113のセンサ制御部113eは、センサ用通信インターフェイス113dを介して物体検知開始情報を取得すると(S1401)、取得した物体検知開始情報が自身に対応するものであるか否かを判断する(S1403)。センサ制御部113eは、自身に対する物体検知開始情報であると判断すると、物体検知開始情報が有する検知領域調整情報を抽出し(S1405)、抽出した検知領域調整情報に基づき、受光素子113cが検知光に対する反射光を受光する期間である受光待機期間を調整する(S1407)。
 センサ制御部113eは、投光素子113aを介して、検知光を投光する(S1409)。センサ制御部113eは、受光素子113cを介して反射光を受光するか否かを監視する。センサ制御部113eは、反射光を受光したと判断すると(S1411)、物体を検知した旨を示す検知結果情報を生成する(S1415)。センサ制御部113eは、生成した検知結果情報、及び、自身を特定するセンサ特定情報をセンサ情報として、制御部170へ送信する(S1419)。
 一方、センサ制御部113eは、ステップS1409において検知光を投光してから、反射光を受光せずに所定の受光待機期間を経過したと判断すると(S1413)、物体を検知しなかった旨を示す検知結果情報を生成する(S1415)。センサ制御部113eは、生成した検知結果情報を、自身を特定するセンサ特定情報とともにセンサ情報として、制御部170へ送信する(S1419)。
 また、センサ制御部113eは、ステップS1403において取得した物体検知開始情報が自身に対応するものでないと判断すると、取得した物体検知開始情報を、センサ用通信インターフェイス113dを介して、隣接する第1物体検知センサ部111、又は、第2物体検知センサ部113へ送信する(S1421)。
 また、センサ制御部113eは、センサ用通信インターフェイス113dを介して、隣接する第2物体検知センサ部113からセンサ情報を取得すると、制御部用通信インターフェイス111fを介して、隣接する第1物体検知センサ部111、又は、第2物体検知センサ部113へ送信する。
[その他の実施形態]
 (1)センサ配置柔軟部材15:前述の実施例1においては、センサ配置柔軟部材15は、ゴムプレートにより形成されるとしたが、柔軟性を有し、設置対象物の表面に沿って変形するものであれば、例示のものに限定されない。例えば、繊維状のシートや、フレキシブルに変形するプラスチック等であってもよい。前述の実施例4、実施例5についても同様である。
 また、センサ配置柔軟部材15は、帯形状を有するとしたが、複数の物体検知センサユニット11を配置できる広さ、領域を有するものであれば、矩形状や、その他の多角形形状等であってもよい。前述の実施例4、実施例5についても同様である。
 (2)センサ配置柔軟部材25:前述の実施例2においては、センサ配置柔軟部材25は、調整できる伸縮機構253bを有する中間柔軟部材253を用いていたが、隣接するセンサ配置部材251の間の長さを調整できるものであれば、例示のものに限定されない。例えば、伸縮機構253bを有さず、ベルト253aを、伸縮性を有する素材、例えば、所定のゴム素材によって形成するようにしてもよい。前述の実施例4、実施例5についても同様である。
 (3)センサ配置柔軟部材35:前述の実施例3の単位柔軟部材351において、連結方向の長さが異なる複数のタイプを用意し、適宜、選択して連結することによって、物体検知センサ部13の配置位置を調整できるようにしてもよい。センサ配置柔軟部材35全体の長さを調整できるので、容易に対象物に適合させることができる。
 (4)検知領域R13の形状:前述の実施例1~実施例3においては、投光レンズ13bとしてシリンドリカルレンズを用いて直線状の検知領域R13を形成するとしたが、所望の検知領域を形成できるものであれば、どのような投光レンズ13bを用いるようにしてもよい。例えば、図10に示すように、円形の凸レンズである投光レンズ143bを用いて、円形状の検知領域R143を形成するようにしてもよい。
 また、投光レンズ143bの投光方向を調整できるようにしてもよい。この場合、例えば、図10に示すように、物体検知センサ部143の投光素子13a、投光レンズ143bを、矢印a6方向に、上下左右に回転させるようにすればよい。
 さらに、全ての物体検知センサ部143について同一方向に検知領域R143を形成せずに、図11Aに示すように、複数の方向に検知領域R143を形成するようにしてもよい。
 実施例1における物体検知装置10についても、投光素子13a、投光レンズ13b(図2参照)を回転できる物体検知センサ部153を用いて、図11Bに示すように、同様に、複数の方向に検知領域R153を形成するようにしてもよい。実施例2における物体検知装置20、実施例3における物体検知装置30についても、同様である。以上は、前述の実施例4、実施例5についても同様である。
 (5)物体検知センサ部13の配置:前述の実施例1~実施例3においては、物体検知センサ部13を直線状に配置し、検知領域R11をセンサ配置柔軟部材15上に形成するとしたが、マトリクス状、その他の規則性を沿って配置しても、また、規則性を持たずにランダムに配置し、所望の検知範囲を形成できるものであれば、例示のものに限定されない。前述の実施例4、実施例5についても同様である。
 また、実施例1における物体検知装置10の物体検知センサ部13の配置を、一定ではなく、適宜、変更できるようにしてもよい。例えば、センサ配置柔軟部材15に、複数の取付凹部を形成しておき、所望の取付凹部を選択して、物体検知センサ部13の取付凸部を係合させて、物体検知センサ部13を配置するようにしてもよい。また、センサ配置柔軟部材15に、レールを配置しておき、物体検知センサ部13のレールの所望位置で係合させて、物体検知センサ部13を配置するようにしてもよい。実施例2、実施例3についても同様である。
 (6)中間柔軟部材253:前述の実施例2においては、中間柔軟部材253を接続ハーネス19とは別に配置したが、物体検知センサ部13をカスケード接続するのであれば、中間柔軟部材253と接続ハーネス19とを一体として形成し、伸縮機構を有し、伸縮可能な接続ハーネス(中間接続ハーネス)を中間柔軟部材として用いるようにしてもよい。前述の実施例4、実施例5についても同様である。
 (7)物体検知センサ部13の機能:前述の実施例1~実施例3においては、物体検知センサ部13は、物体の存在を検知するものとしたが、物体までの距離や方向を検知するものであってもよい。物体検知センサ部13によって距離を検知することによって、物体検知センサ部13を配置する配置対象物から任意の設定距離内に侵入した物体や人を検知できる。これにより、配置対象物からの距離に基づき、配置対象物の動作を制御できる。前述の実施例4、実施例5についても同様である。
 また、物体検知センサ部13は、所定の検知光を用いて物体の存在を検知するものとしたが、物体の存在を検知できるものであれば、赤外線、音波等その他の検知波を用いるようにしてもよい。前述の実施例4、実施例5についても同様である。
 (8)制御部17の構成:前述の実施例1~実施例3においては、CPU17aを用いて制御部17の動作を実現したが、制御部17の動作を実現できる構成であれば、例示のものに限定されない。例えば、専用のロジック回路を設計して用いるようにしてもよい。前述の実施例4、実施例5についても同様である。
 (9)物体検知センサ部13の接続:前述の実施例1~実施例3においては、各物体検知センサ部13を制御部17にパラレルに接続するとしたが、各物体検知センサ部13同士をカスケード接続し、端部の物体検知センサ部13を制御部17へ接続するようにしてもよい。
 また、物体検知装置10では、各物体検知センサユニット11と制御部17とを接続ハーネス19で接続するとしたが、無線によって、接続するようにしてもよい。実施例2の物体検知装置20、実施例3の物体検知装置30についても同様である。前述の実施例4、実施例5についても同様である。
 さらに、物体検知装置10では、物体検知センサ部13と制御部17とを接続ハーネス19を用いて接続するとしたが、複数の物体検知センサ部13を1つの中間インターフェイス部に接続し、中間インターフェイス部を制御部17に接続するように、つまり、中間インターフェイス部を介して、物体検知センサ部13と制御部17とを接続するようにしてもよい。実施例2の物体検知装置20、実施例3の物体検知装置30についても同様である。前述の実施例4、実施例5についても同様である。
 (10)光用フィルタの使用:前述の実施例1~実施例3において、さらに、光用フィルタを用いて、所定の光のみを用いて、物体を検知するようにしてもよい。前述の実施例4、実施例5についても同様である。
 (11)センサ接続情報:前述の実施例1において、センサ接続情報は、予め、メモリに記憶保持しておくとしたが、物体検知装置10を使用する段階でセンサ接続情報を取得するようにしてもよい。例えば、制御部17の起動時に、制御部17がセンサ用通信回路13dを介して各物体検知装置10と情報を送受信し、物体検知装置10が接続されているか否かを判断し、センサ接続情報を生成するようにしてもよい。また、センサ用通信回路13dにおける物体検知装置10の接続位置(例えば、接続ポート)を判断するようにしてもよい。実施例2の物体検知装置20、実施例3の物体検知装置30についても同様である。前述の実施例4、実施例5についても同様である。
 (12)投光素子13aと受光素子13cとの分離:前述の実施例4においては、投光素子13aが投光した検知光がユニット配置部433の内部において、反射し、受光素子13cで受光されないように、ユニット配置部433の内部に、投光素子13aから投光する検知光と受光素子13cが受光する反射光とを分離する隔壁を配置するようにしてもよい。
 実施例5におけるセンサ間接続線保護部59、実施例6におけるセンサ間接続線保護部69についても同様に、それぞれの内部に、投光素子13aから投光する検知光と受光素子13cが受光する反射光とを分離する隔壁を配置するようにしてもよい。実施例6におけるセンサ間接続線保護部69についても同様である。
 (13)センサ間接続線保護部59、69の分割数:前述の実施例5において、センサ間接続線保護部59は、第1筐体591、第2筐体592の2つによって形成されるとしたが、3つ以上の筐体により形成するようにしてもよい。センサ間接続線保護部69についても同様である。
 (14)物体検知センサ部における発光素子、受光素子の数:前述の実施例1における各物体検知センサ部13では、1対の投光素子13a、及び、受光素子13cを配置するとしたが、複数対の投光素子13a、及び、受光素子13cを配置するようにしてもよい。例えば、これにより、製造コストを低減できる。また、物体検知センサ部13と制御部17とを接続する接続ハーネス19の数を低減することができる。実施例2から実施例6についても同様である。なお、実施例4から実施例6においては、各センサ間接続線の数を低減できる。
 (15)検知状況の視覚化:前述の実施例1における物体検知センサ部13において、さらに、物体の検知状況を示す検知状況表示部を配置するようにしてもよい。検知状況表示部としては、例えば、LED、及び、LEDの発光制御回路を用いる。物体検知センサ部において物体を検知すると、LEDが発行するようにする。
 また、LEDにおける発光を、物体の検知状況によって、変化させるようにしてもよい。例えば、多色発光LED、及び、発光色を制御する発光制御回路を用いて、物体を検知していない状況では青色に発光させ、物体を検知した状況では、検知した物体までの距離に応じて、黄色から赤色に変化させる。
 また、検知した物体までの距離によって、発光の明るさを変化させるようにしてもよい。例えば、LEDに流れる電流を制御する発光制御回路を用いて、物体を検知していない状況では発光させず、物体を検知した状況では、検知した物体までの距離に応じて、明るさを暗い状態から明るい状態に変化させる。
 これにより、物体の検知状態を簡単に知ることができる。また、物体検知センサの動作の不具合を容易に知ることができる。実施例2から実施例6の各物体検知センサ部についても同様である。
 (16)各筐体部の形状:前述の実施例7~実施例9においては、各筐体部は、中空円筒形状としたが、所定の設置対象物の表面に取り付けることができる形状であれば、例示のものに限定されない。例えば、直線形状や、中空角柱形状であってもよい。
 また、各筐体部を取り付ける設置対象物は、産業用ロボットRBTのアームAM11~AM13のような円柱形状でなくともよい。例えば、角柱形状のアームであっても、断面における頂点を各物体検知センサユニットの各内周部で支えるようにして、各物体検知センサユニットを取り付けるようにしてもよい。さらに、設置対象物と各物体検知センサユニットの内周部との間に所定のスペーサを配置することによって、物体検知センサユニットを設置対象物に取り付けるようにしてもよい。
 (17)投受光用開口形成端部131b、132b:前述の実施例7においては、投受光用開口形成端部131b、132bは、検知光を投受光できるように投受光用開口R131aを有するとしたが、検知光を投受光できるものであれば、例示のものに限定されない。例えば、投受光用開口形成端部131b、132bに投受光用開口R131aを形成せずに、検知光を投受光できる半透明の円環形状として形成するようにしてもよい。実施例8、実施例9についても同様である。
 また、投受光用開口形成端部131b、132bにだけ投受光用開口R131aを形成せずに、端面P131b、P132bにも、軸方向投光部X15、軸方向受光部X17を配置し、対応する投受光用開口を形成するようにしてもよい。実施例8、実施例9についても同様である。
 (18)反射部X200の存在:前述の実施例8においては、物体検知センサユニットX21は、軸方向投光部X15から投光された検知光を反射する反射部X200を有するとしたが、図39に示す物体検知装置X40のように、反射部X200を用いないようにしてもよい。この場合、物体検知センサユニットX21の制御部X19は、投光した検知光の反射光を受光した場合に、物体Xが存在すると判断する。
 (19)投光方向の調整:前述の実施例7~実施例9において、軸方向投光部X15を回転できるようにし、軸方向投光部X15が検知光を投光する方向を調整できるようにしてもよい。軸方向受光部X17についても同様である。
 (20)軸方向投光部X15、軸方向受光部X17の配置:前述の実施例7においては、軸方向投光部X15と軸方向受光部X17とを、同一の物体検知センサユニットX11において交互に配置するとしたが、対を形成する物体検知センサユニットX11のうち一方に軸方向投光部X15のみを、他方に軸方向受光部X17のみを配置するようにしもてよい。
 (21)放射方向投光部X35、放射方向受光部X37の配置:前述の実施例9においては、実施例8の物体検知センサユニットX21に放射方向投光部X35、放射方向受光部X37を配置するとしたが、実施例7の物体検知センサユニットX11に放射方向投光部X35、放射方向受光部X37を配置するようにしてもよい。
 (22)物体検知センサユニットX21の機能:前述の実施例8においては、物体検知センサユニットX21は、物体の存在を検知するものとしたが、物体までの距離や方向を検知するものであってもよい。これにより、検知物体までの距離や方向に基づき、制御対象の動作を制御することもできる。前述の実施例9についても同様である。
 (23)検知光:前述の実施例7~実施例9においては、所定の検知光を用いて物体の存在を検知するものとしたが、物体の存在を検知できるものであれば、赤外線だけでなく、音波等その他の検知波を用いるようにしてもよい。
 (24)制御部X19の構成:前述の実施例7~実施例9においては、CPU19aを用いて制御部X19の動作を実現したが、制御部X19の動作を実現できる構成であれば、例示のものに限定されない。例えば、専用のロジック回路を設計して用いるようにしてもよい。
 (25)物体検知センサユニットの接続:前述の実施例7~実施例9においては、各物体検知センサユニットを所定の接続線を用いて制御部X19に接続するとしたが、無線によって、接続するようにしてもよい。
 (26)光用フィルタの使用:前述の実施例7~実施例9において、さらに、光用フィルタを用いて、所定の光のみを用いて、物体を検知するようにしてもよい。
 (27)軸方向投光部X15と軸方向受光部X17との分離:前述の実施例7~実施例9においては、軸方向投光部X15が投光した検知光が各筐体部の内部において、反射し、軸方向受光部X17で受光されないように、各筐体部の内部に、軸方向投光部X15から投光される検知光と軸方向受光部X17が受光する反射光とを分離する隔壁を配置するようにしてもよい。
 (28)各筐体部の分割数:前述の実施例7において、筐体部X13は、第1筐体部131、第2筐体部132の2つによって形成されるとしたが、3つ以上の筐体部により形成するようにしてもよい。実施例8、実施例9についても、同様である。
 (29)検知状況の視覚化:前述の実施例7~実施例9おける各物体検知センサユニットおいて、さらに、物体の検知状況を示す検知状況表示部を配置するようにしてもよい。検知状況表示部としては、例えば、LED、及び、LEDの発光制御回路を用いる。物体検知センサ部において物体を検知すると、LEDが発行するようにする。
 また、LEDにおける発光を、物体の検知状況によって、変化させるようにしてもよい。例えば、多色発光LED、及び、発光色を制御する発光制御回路を用いて、物体を検知していない状況では青色に発光させ、物体を検知した状況では、検知した物体までの距離に応じて、黄色から赤色に変化させる。
 また、検知した物体までの距離によって、発光の明るさを変化させるようにしてもよい。例えば、LEDに流れる電流を制御する発光制御回路を用いて、物体を検知していない状況では発光させず、物体を検知した状況では、検知した物体までの距離に応じて、明るさを暗い状態から明るい状態に変化させる。
 これにより、物体の検知状態を簡単に知ることができる。また、物体検知センサの動作の不具合を容易に知ることができる。
 (30)基板S:前述の実施例7における物体検知センサユニットおいては、筐体X13内において複数の基板Sを接続線Wで接続していたが、軸方向投光部X15、軸方向受光部X17を電気的に接続できるものであれば、例示のものに限定されない。例えば、筐体X13内配置できる円環状の基板を形成し、各軸方向投光部X15、軸方向受光部X17を配置し、基板に形成された配線により、電気的に接続するようにしてもよい。その他の実施例についても同様である。
 (31)物体検知装置X10の積層設置:前述の実施例7における物体検知装置X11を、図40に示すように、設置対象物に対して積層するように設置してもよい。この場合、内側の物体検知装置X11-Sは、図28に示す物体検知装置X11と同様に、設置対象物の表面に沿って配置され、外側の物体検知装置X11-Lは、自身の内周部131d(図29参照)が、物体検知装置X11-Sの外周部131a(図29参照)に沿うように配置するようにする。これにより、図41a、図41bに示すように、対となる物体検知装置X11―Sと、対となる物体検知装置X11―Lとを、それぞれ、積層して配置することによって、図41cに示すように、設置対象物の表面からの距離に応じて、物体検知装置X11-Sの検知領域(実線矢印)と物体検知装置X11-Lの検知領域(点線矢印)といった複数層の検知領域を形成できる。つまり、設置対象物の表面からの距離に応じて、設置対象物に対する制御動作を変更することができる。例えば、外側の物体検知装置X11-Lで物体が検知された段階では警報発令とし、内側の物体検知装置X11-Sで物体が検知された段階で、設置対象物の動作停止にできる。なお、物体検知装置X11-S、X11-Lを積層して配置する場合には、ヒンジ部133(図29参照)が積層の障害とならないように、図40に示すヒンジ部133-S、133-Lのように、外周部131a(図29参照)から突出しない位置に形成するようにしてもよい。
 また、図42a、図42bに示すように、図40の内側の物体検知装置X11-Sを、図33に示す反射部X200のように、軸方向投光部X15、軸方向受光部X17を有さない高さ調整部X500としてもよい。これにより、図42cに示すように、物体検知装置X11-Lの、設置対象物の表面からの距離を自由に調整することができる。
 さらに、対となる物体検知装置X11を配置する際に、一方を、図28に示すように、設置対象物の表面に沿って配置し、他方を、図42aに示すように、高さ調整部X500の上に設置するようにしてもよい。これにより、図43に示すように、設置対象物の表面に沿って、傾斜するように検知領域を形成することができる。物体検知装置X11-Lが設置されている側では、物体検知装置X11-Sが設置されている側に比して、設置対象物の表面から遠い位置で物体を検知できるため、より早い段階で設置対象物の動作制御、例えば、より早く動作停止できる。以上は、その他の実施例についても同様である。
 (32)対となる物体検知装置の位置合わせ:前述の実施例7における物体検知装置X11では、ヒンジ部133の位置を合わせることによって、対となる物体検知装置X11、具体的には、軸方向投光部X15と軸方向受光部X17との位置を合わせたが、両者の位置合わせができるものであれば、例示のものに限定されない。例えば、筐体X13に所定の位置合わせマークを配置するようにしてもよい。
 (33)検知領域の調整:前述の実施例10においては、取付対象の推定形状と、推定した第1物体検知センサ部111、第2物体検知センサ部113の検知領域とが干渉する場合に、検知領域調整情報を生成するとしたが、検知領域調整情報を生成する場合は例示のものに限定されない。例えば、図60に示すように、推定した第1物体検知センサ部111、第2物体検知センサ部113の検知領域、地面に向かって生成される場合についても、検知領域調整情報を生成するようにしてもよい。
 この場合、地面に向かう位置にあるアームAM3、アームAM5において(図60参照)、図61に示すように、アームAM5の物体検地センサユニット110_3において、地面に向かう側の面F5に、例えば、対象アームにおいて最下位に位置する母線を中心に左右45度内に、位置する第1物体検知センサ部111、及び/又は、第2物体検知センサ部113が形成する検知領域は地面と干渉すると判断する。その他のアーム、その他の物体検知センサユニット110についても同様に判断する。
 また、前述の実施例10においては、取付対象である産業用ロボットRBTの形状推定において、対向して位置するアームが存在すると判断した場合、対向して位置するアームに干渉する検知領域については、所定の範囲に減縮するとしたが、干渉する検知領域を形成する第1物体検知センサ部111、第2物体検知センサ部113については、検知領域を0(ゼロ)とし、反射光を受光したとしても、物体を検知したとは判断しない、つまり、受光した反射光を無効とするようにしてもよい。これにより、第2物体検知センサ部113については、第1物体検知センサ部111、第2物体検知センサ部113毎に、推定した取付対象の形状に応じて、都度、検知領域を調整する必要がなくなるため、制御部170の処理負担を軽減できる。なお、干渉する検知領域を形成する第1物体検知センサ部111、第2物体検知センサ部113の検知領域を0にし、反射光の受光を無効にしたとしても、取付対象に対して環状に配置されている第1物体検知センサ部111、第2物体検知センサ部113のいずれかによって、例えば、外部から接近してくる人や物体を、検知できる場合が多い。
 さらに、前述の実施例10においては、検知領域を、予め定められた範囲に減縮するとしたが、取付対象の形状推定により、対向して位置するアームが存在すると判断した場合、推定した形状から算出されるアーム間距離を用いて、検知領域を調整するようにしてもよい。例えば、アーム間距離より短い距離に物体を検知した場合には、物体を検知した旨の検知結果情報を生成し、物体間距離以上に長い距離に物体を検知した場合には、物体を検知していない旨の検知結果情報を生成する。
 (34)検知領域の推定:前述の実施例10においては、取付対象の形状と、第1物体検知センサ部111、第2物体検知センサ部113の検知領域とを、具体的に、推定し、両者の干渉を判断したうえで、検知領域調整情報を生成するものとしたが、意図しない物体の検知を防止できるように、検知領域調整情報を生成できるものであれば、例示のものに限定されない。例えば、図62に示すように、対向して位置するアームAM3、AM7において、アームAM3のアームAM7に対向して位置する面の所定の領域F13に位置する第1物体検知センサ部111、及び/又は、第2物体検知センサ部113については、検知領域調整情報を生成するようにしてもよい。この場合、図63に示すように、アームAM3のアームAM7に対向して位置する面の所定の領域F13を、アームAM3の中心角βによって決定するようにしてもよい。
 (35)加速度センサ部:前述の実施例10においては、3軸の加速度センサ部111gを用いて、加速度を検知し、移動情報を生成するとしたが、移動情報を形成できるものであれば、例示のものに限定されない。例えば、3軸の加速センサに加えて、3軸の角速度センサを配置するようにしてもよい。これにより、アームが長軸を中心に回転するように動作する産業用ロボットRBTであっても、産業用ロボットRBTの形状を推定でき、また、第1物体検知センサ部111、第2物体検知センサ部113の位置、及び、各検知領域を推定できる。
 また、前述の実施例10においては、第1物体検知センサ部111に加速度センサ部111gを配置するとしたが、第2物体検知センサ部113にも配置するようにしてもよい。
 さらに、前述の実施例10においては、各アームに2つの物体検知センサユニット110を配置し、それぞれが、第1物体検知センサ部111を有しているとしたが、各アームに複数配置されている物体検知センサユニット110の一部、例えば、いずれか1つに加速度センサ部111gを配置するようにしてもよい。
 (36)移動情報の取得制御:前述の実施例10においては、第1物体検知センサ部111では、検地結果情報を生成した後、加速度情報を取得するとしたが(図58参照)、検地結果情報の生成にかかわらず、適宜、必要なタイミングで、加速度を取得し、移動情報を制御部170へ送信するようにしてもよい。これにより、制御部170において、取付対象である産業用ロボットRBTの動作状態に、リアルタイムに、追随することができるとともに、高速な処理を実現できる。
 この場合、図64に示すように、制御部170においても、CPU170aは、移動情報を取得する毎に(S2101)、取付対象の形状推定処理を実行する(S909)。また、CPU170aは、全ての第1物体検知センサ部111、第2物体検知センサ部113からセンサ情報を取得すると(S905)、形状推定処理によって推定されたその時点での産業用ロボットRBTの推定形状を取得し(S2109)、検知領域情報生成処理を実行する(S911)ようにしてもよい。
 また、前述の実施例10においては、第1物体検知センサ部111のセンサ制御部111eが、加速度センサ部111gからの移動情報の取得タイミングを制御するとしたが、移動情報の取得タイミングを制御できるものであれば、例示のものに限定されない。例えば、制御部170のCPU170aが、加速度センサ部111gからの移動情報の取得タイミングを制御するようにしてもよい。これにより、制御部170と第1物体検知センサ部111との間で生ずる通信オーバーヘッドを削減できる。第2物体検知センサ部113についても、同様である。
 (37)第1物体検知センサ部111、第2物体検知センサ部113:前述の実施例10においては、第1物体検知センサ部111、第2物体検知センサ部113をそれぞれの基板上に形成し、センサ間接続線で接続するとしたが、両者を同一の基板上に配置するようにしてもよい。
 (38)筐体部119:前述の実施例10においては、物体検知センサユニット110の筐体部119は、中空円筒形状を有しているとしたが、取付対象に取り付けることができる形状であれば、例示のものに限定されない。例えば、中空四角柱形状であってもよい。また、物体検知センサユニット110は筐体部119を有さず、取付対象に、第1物体検知センサ部111、第2物体検知センサ部113を取り付けるようにしてもよい。
 (39)第1物体検知センサ部111、第2物体検知センサ部113の機能:前述の実施例10においては、第1物体検知センサ部111、第2物体検知センサ部113は、物体の存在を検知するものとしたが、物体までの距離や方向を検知するものであってもよい。物体検知センサ部13によって距離を検知することによって、取付対象から任意の設定距離内に侵入した物体や人を検知できる。これにより、取付対象からの距離に基づき、取付対象の動作を制御できる。
 また、第1物体検知センサ部111、第2物体検知センサ部113は、所定の検知光を用いて物体の存在を検知するものとしたが、物体の存在を検知できるものであれば、赤外線、音波等その他の検知波を用いるようにしてもよい。
 (40)制御部170の構成:前述の実施例10においては、CPU170aを用いて制御部170の動作を実現したが、制御部170の動作を実現できる構成であれば、例示のものに限定されない。例えば、専用のロジック回路を設計して用いるようにしてもよい。
 (41)物体検知センサユニット110の接続:前述の実施例10においては、各物体検知センサユニット110を制御部170にパラレルに接続するとしたが、各物体検知センサユニット110同士をカスケード接続し、端部の物体検知センサユニット110を制御部170へ接続するようにしてもよい。
 また、物体検知装置100では、各物体検知センサユニット110と制御部170とを接続ハーネス190で接続するとしたが、無線によって、接続するようにしてもよい。
 さらに、物体検知装置100では、物体検知センサユニット110と制御部170とを接続ハーネス190を用いて接続するとしたが、複数の物体検知センサユニット110を1つの中間インターフェイス部に接続し、中間インターフェイス部を制御部170に接続するように、つまり、中間インターフェイス部を介して、物体検知センサユニット110と制御部170とを接続するようにしてもよい。
 (42)光用フィルタの使用:前述の実施例10において、さらに、投光レンズ111bに光用フィルタを用いて、所定の光のみを用いて、物体を検知するようにしてもよい。
 (43)筐体部119の分割数:前述の実施例10において、筐体部119は、第1筐体部1191、第2筐体部1192の2つによって形成されるとしたが、3つ以上の筐体により形成するようにしてもよい。
 (44)制御部170の構成:前述の実施例10においては、制御部170は、CPU170aを用いて、検知領域調整処理を実行するとしたが、検知領域調整処理を実行するものであれば、例示のものに限定されない。例えば、ロジック回路を設計し、検知領域調整処理を実行するようにしてもよい。
 (45)検知領域調整処理:前述の実施例10においては、検知領域調整処理として、図52?図54のフローチャートを示したが、同様の処理を実行できるものであれば、例示のフローチャートに限定されない。
 (46)第1物体検知センサ部111、第2物体検知センサ部113の処理:前述の実施例10においては、第1物体検知センサ部111、第2物体検知センサ部113、それぞれの処理として、図58、図59のフローチャートを示したが、同様の処理を実行できるものであれば、例示のフローチャートに限定されない。
 本発明に係る物体検知装置は、例えば、産業用ロボットに用いることができる。
10   物体検知装置
 11   物体検知センサユニット
 13   物体検知センサ部
  13a   投光素子
  13b   投光レンズ
  13c   受光素子
  13d   センサ用通信回路
 15   センサ配置柔軟部材
  J15   長軸
 17   制御部
  17a   CPU
  17b   メモリ
  17g   センサ制御用通信回路
  17h   動作制御用通信回路
 19   接続ハーネス
 R11   検知領域
 R13   検知領域
20   物体検知装置
 21   物体検知センサユニット
 25   センサ配置柔軟部材
  251   センサ配置部材
  253   中間柔軟部材
   253a   ベルト
   253b   伸縮機構
30   物体検知装置
 31   物体検知センサユニット
 35   センサ配置柔軟部材
  351   単位柔軟部材
40   物体検知装置
 41   物体検知センサユニット
 43   物体検知センサ部
  431   センサ基板
  433   ユニット配置部
   433a   ユニット保護筐体部
    433a1   センサ基板配置用内部空間
    433a2   投光用開口
    433a3   受光用開口
    433a4   センサ間接続線用開口
    433a5   接続ハーネス用開口
   433b   センサ配置柔軟部材係止部
    433b1   柔軟部材挿入空間
    433b2   柔軟部材配置空間
 45   センサ配置柔軟部材
  45T1   端部
  45T2   端部
 47   センサ間接続線
 49   センサ間接続線保護部
  49a   センサ間接続線被覆部
  49b   センサ配置柔軟部材係止部
   49b1   柔軟部材挿入空間
   49b2   センサ間接続線・柔軟部材配置空間
50   物体検知装置
 51   物体検知センサユニット
 59   センサ間接続線保護部
  591   第1筐体
   591a   センサ間接続線被覆部
    591a1   センサ配置用開口
   591b   端部
   591c   内周部
   591d   端部
  592   第2筐体
   592a   センサ間接続線被覆部
   592d   端部
  593   ヒンジ部
60   物体検知装置
 61   物体検知センサユニット
 63   物体検知センサ部
  631   センサ基板
 65   センサ配置柔軟部材
 67   センサ間接続線
 69   センサ間接続線保護部
  691   第1筐体
   691a   センサ間接続線被覆部
    691a1   投光用開口
    691a2   受光用開口
   691b   端部
   691c   内周部
   691d   端部
  692   第2筐体
   692d   端部
 L1   距離
143   物体検知センサ部
 143b   投光レンズ
 R143   検知領域
153   物体検知センサ部
 R153   検知領域
RBT   産業用ロボット
 AM1~AM7   アーム
 J1~J13   可動回転ジョイント
 B1   土台
 H1   ハンド
X10   物体検知装置
 X11   物体検知センサユニット
  X13   筐体部
   131   第1筐体部
    131a   外周部
    131b   投受光用開口形成端部
     N13   法線方向
     P131b   端面
     R131a   投受光用開口
    131c   端部
    131d   内周部
   132      第2筐体部
   133      ヒンジ部
  X15   軸方向投光部
  X17   軸方向受光部
 X19   制御部
  19a   CPU
  19b   メモリ
  19g   センサ制御用通信回路
  19h   動作制御用通信回路
X20        物体検知装置
 X21   物体検知センサユニット
  X23   筐体部
   231   第1筐体部
    231b   投受光用開口形成端部
     P231b   端面
     R231a   投光用開口
     R231a  投受光用開口
     R231b   受光用開口
   232   第2筐体部
 X200      反射部
X30   物体検知装置
 X31   物体検知センサユニット
  X33   筐体部
   331   第1筐体部
    331a   外周部
     R331a   放射方向投光用開口
     R331b   放射方向受光用開口
   332   第2筐体部
  X35   放射方向投光部
  X37   放射方向受光部
X40   物体検知装置
X11-L   物体検知装置
X11-S   物体検知装置
100   物体検知装置
 110   物体検知センサユニット
  111   第1物体検知センサ部
   111a   投光素子
   111b   投光レンズ
   111c   受光素子
   111d   センサ用通信インターフェイス
   111e   センサ制御部
   111f   制御部用通信インターフェイス
   111g   加速度センサ部
   R111   検知領域
  113   第2物体検知センサ部
   113a   投光素子
   113b   投光レンズ
   113c   受光素子
   113d   センサ用通信インターフェイス
   113e   センサ制御部
   R113   検知領域
  117   センサ間接続線
  119   筐体部
   J119   長軸
   1191   第1筐体部
    1191a   外周部
     1191a1   投受光用開口
    1191b   端部
    1191c   内周部
    1191d   端部
   1192   第2筐体部
    1192a   外周部
     1192a1   投受光用開口
    1192b   端部
    1192c   内周部
    1192d   端部
   1193   ヒンジ部
    J1193   回転軸
 170   制御部
  170a   CPU
  170b   メモリ
  170g   センサ制御用通信回路
  170h   動作制御用通信回路
 190   接続ハーネス

Claims (28)

  1.  周囲の物体を検知する物体検知センサ部、
     複数の前記物体検知センサ部が配置され、柔軟性を有するセンサ配置柔軟部材、
     前記物体検知センサ部の動作を制御する制御部、
     前記物体検知センサ部と前記制御部とを、直接的に、または、間接的に接続する接続ハーネス、
     を有する物体検知装置。
  2.  請求項1に係る物体検知装置において、
     前記センサ配置柔軟部材は、
     帯形状を有し、前記帯形状の長軸に沿って直線状に配置された前記物体検知センサ部を有すること、
     を特徴とする物体検知装置。
  3.  請求項1に係る物体検知装置において、
     前記センサ配置柔軟部材は、
     前記物体検知センサ部が配置されるセンサ配置部材、
     前記センサ配置部材の間を連結する中間柔軟部材であって、柔軟性を有する中間柔軟部材、
     を有すること、
     を特徴とする物体検知装置。
  4.  請求項3に係る物体検知装置において、
     前記中間柔軟部材は、
     長さを調整する伸縮機構を有すること、
     を特徴とする物体検知装置。
  5.  請求項1に係る物体検知装置において、
     前記センサ配置柔軟部材は、
     前記物体検知センサ部が配置される複数の単位柔軟部材、
     を有し、
     前記単位柔軟部材は、
     隣接する他の前記単位柔軟部材と連結する連結機構を有すること、
     を特徴とする物体検知装置。
  6.  請求項1~請求項5に係るいずれかの物体検知装置において、
     前記接続ハーネスは、
     前記物体検知センサ部のそれぞれを前記制御部に直接的に接続すること、
     を特徴とする物体検知装置。
  7.  請求項1~請求項5に係るいずれかの物体検知装置において、
     前記接続ハーネスは、
     前記物体検知センサ部の間をカスケード接続すること、
     を特徴とする物体検知装置。
  8.  周囲の物体を検知する物体検知センサ部、
     複数の前記物体検知センサ部が配置され、柔軟性を有するセンサ配置柔軟部材、
     前記物体検知センサ部の動作を制御する制御部、
     前記物体検知センサ部と前記制御部とを接続する接続ハーネス、
     を有する物体検知装置であって、
     前記センサ配置柔軟部材は、
     前記物体検知センサ部が配置されるセンサ配置部材、
     前記物体検知センサ部の間をカスケード接続する中間接続ハーネスであって、柔軟性を有する中間接続ハーネス、
     を有すること、
     を特徴とする物体検知装置。
  9.  請求項8に係る物体検知装置において、
     前記中間接続ハーネスは、
     長さを調整する伸縮機構を有すること、
     を特徴とする物体検知装置。
  10.  請求項1に係る物体検知装置において、
     前記接続ハーネスは、
     隣接する前記物体検知センサ部間を接続するセンサ間接続線、及び、前記物体検知センサ部と前記制御部とを、直接的に接続する接続線、
     を有し、
     前記センサ間接続線を覆うことによって保護するセンサ間接続線保護部、
     を有する物体検知装置。
  11.  請求項10に係る物体検知装置において、
     前記センサ間接続線保護部は、
     隣接する前記物体検知センサ部間毎に配置されること、
     を特徴とする物体検知装置。
  12.  請求項10に係る物体検知装置において、
     前記センサ間接続線保護部は、
     環状構造を有すること、
     を特徴とする物体検知装置。
  13.  請求項12に係る物体検知装置において、
     前記センサ間接続線保護部は、
     前記物体検知センサ部を配置するためのセンサ用開口を有すること、
     を特徴とする物体検知装置。
  14.  所定の設置対象物の表面に設置する物体検知装置であって、
     前記表面の法線方向に対して交差する方向に検知光を投光する投光部、及び、前記表面の前記法線方向に対して交差する方向から前記検知光を受光する受光部の少なくともいずれか一方、
     を有する物体検知装置。
  15.  請求項14に係る物体検知装置において、さらに、
     前記投光部、及び/又は、受光部が内部に位置する筐体部であって、環状構造を有する筐体部、
     を有する物体検知装置。
  16.  請求項15に係る物体検知装置において、
     前記筐体部は、
     前記表面の前記法線方向に対して交差する方向を法線方向とする端面、
     を有し、
     前記端面は、
     前記検知光を投光するための開口、及び/又は、前記検知光を受光するための開口、
     を有すること、
     を特徴とする物体検知装置。
  17.  請求項14~請求項16のいずれかに係る物体検知装置において、
     前記投光部は、
     他の物体検知装置の前記受光部に対して前記検知光を投光し、
     前記受光部は、
     他の物体検知装置の前記投光部が投光した前記検知光を受光すること、
     を特徴とする物体検知装置。
  18.  請求項14~請求項16のいずれかに係る物体検知装置において、
     互いに対をなす前記投光部、及び、前記受光部を有し、
     前記受光部は、
     対をなす前記投光部が投光した前記検知光を受光すること、
     を特徴とする物体検知装置。
  19.  請求項18に係る物体検知装置において、
     前記端面に対向して位置する反射面であって、前記投光部が投光した検知光を、前記検知光を投光した前記投光部と対をなす前記受光部に対して反射する反射面を有する反射部、
     を有すること、
     を特徴とする物体検知装置。
  20.  所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、
     自身の移動状態を示す移動情報を取得する移動情報取得部、
     前記検知結果情報、及び、前記位置情報を送信する送信部、
     前記検知領域を調整する検知領域調整情報を受信する受信部、
     前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、
     取付対象に取り付けるための筐体部、
     を有する物体検知センサユニット、
     及び、
     前記検知結果情報、及び、前記移動情報を受信する受信部、
     受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、
     前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、
     推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、
     生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサ部に対して、送信する検知領域調整情報送信部、
     を有する物体検知制御装置、
     を有する物体検知システム。
  21.  所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、
     自身の移動状態を示す移動情報を取得する移動情報取得部、
     前記検知結果情報、及び、前記位置情報を送信する送信部、
     前記検知領域を調整する検知領域調整情報を受信する受信部、
     前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、
     取付対象に取り付けるための筐体部、
     を有する物体検知センサユニット。
  22.  請求項21に係る物体検知センサユニットにおいて、
     前記検知領域調整部は、
     前記検知領域を減縮する、または、0(ゼロ)にするように調整すること、
     を特徴とする物体検知センサユニット。
  23.  請求項21、又は、請求項22に係る物体検知センサユニットにおいて、
     前記移動情報取得部は、
     3軸の加速センサであること、
     を特徴とする物体検知センサユニット。
  24.  請求項23に係る物体検知センサユニットにおいて、
     前記移動情報取得部は、さらに、
     3軸の角速度センサを有すること、
     を特徴とする物体検知装置。
  25.  所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、
     自身の移動状態を示す移動情報を取得する移動情報取得部、
     前記検知結果情報、及び、前記位置情報を送信する送信部、
     前記検知領域を調整する検知領域調整情報を受信する受信部、
     前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、
     取付対象に取り付けるための筐体部、
     を有する物体検知センサユニットに対して前記検知領域調整情報を送信する物体検知制御装置であって、
     前記検知結果情報、及び、前記移動情報を受信する受信部、
     受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、
     前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、
     推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、
     生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサユニットに対して、送信する検知領域調整情報送信部、
     を有する物体検知制御装置。
  26.  請求項25に係る物体検知制御装置において、
     前記検知領域調整情報生成部は、
     前記検知領域を減縮するまたは、0(ゼロ)にするように調整する前記検知領域調整情報を生成すること、
     を特徴とする物体検知制御装置。
  27.  請求項26に係る物体検知制御装置において、
     前記検知領域調整情報生成部は、
     前記物体検知センサユニットの前記物体検知センサ部における前記反射光を受光可能とする受光待機時間を短縮する前記検知領域調整情報を生成すること、
     を特徴とする物体検知制御装置。
  28.  コンピュータを、所定の検知光を所定の検知領域に投光し、前記検知光の反射光を受光することによって、周囲の物体を検知し、検知の結果を検知結果情報とする物体検知センサ部、
     自身の移動状態を示す移動情報を取得する移動情報取得部、
     前記検知結果情報、及び、前記位置情報を送信する送信部、
     前記検知領域を調整する検知領域調整情報を受信する受信部、
     前記検知領域調整情報を受信すると、次に前記検知光を投光する際に、前記検知領域調整情報を用いて、前記検知領域を調整する検知領域調整部、
     取付対象に取り付けるための筐体部、
     を有する物体検知センサユニットに対して前記検知領域調整情報を送信する物体検知制御装置として動作させる検知領域調整プログラムであって、
     前記検知領域調整プログラムは、
     前記コンピュータを、
     前記検知結果情報、及び、前記移動情報を受信する受信部、
     受信した前記移動情報を用いて、前記取付対象の形状を推定する形状推定部、
     前記物体検知センサ部の検知領域を推定し、推定した前記検知領域と推定した前記取付対象の形状とが干渉するか否かを判断する検知領域干渉判断部、
     推定した前記検知領域と推定した前記取付対象の形状とが干渉すると判断した場合に、前記検知領域を調整する検知領域調整情報を生成する検知領域調整情報生成部、
     生成した前記検知領域調整情報を、推定した前記取付け対象の形状と干渉する前記検知領域を形成する前記物体検知センサユニットに対して、送信する検知領域調整情報送信部、
     として動作させる検知領域調整プログラム。
PCT/JP2019/032087 2018-08-17 2019-08-16 物体検知装置 WO2020036217A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020537105A JP7373177B2 (ja) 2018-08-17 2019-08-16 物体検知装置
JP2023109679A JP2023115401A (ja) 2018-08-17 2023-07-04 物体検知装置
JP2023109678A JP2023120455A (ja) 2018-08-17 2023-07-04 物体検知装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018-153329 2018-08-17
JP2018153329 2018-08-17
JP2018220779 2018-11-26
JP2018-220779 2018-11-26

Publications (1)

Publication Number Publication Date
WO2020036217A1 true WO2020036217A1 (ja) 2020-02-20

Family

ID=69524768

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032087 WO2020036217A1 (ja) 2018-08-17 2019-08-16 物体検知装置

Country Status (2)

Country Link
JP (3) JP7373177B2 (ja)
WO (1) WO2020036217A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021200795A1 (de) 2021-01-28 2022-07-28 Dr. Doll Engineering Gmbh Schutzvorrichtung für einen Industrieroboter

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5546224U (ja) * 1978-09-21 1980-03-26
JPH09329669A (ja) * 1996-06-11 1997-12-22 Omron Corp 透明物体の光学的検出方法及びその光学的検出装置及び受光装置並びにこれら方法又は装置を用いた透明容器の液体注入方法
JPH11258356A (ja) * 1998-03-16 1999-09-24 Mitsubishi Heavy Ind Ltd 土砂崩壊検知システム
JP2006317237A (ja) * 2005-05-11 2006-11-24 Keyence Corp 多光軸光電式安全装置
DE102008063081A1 (de) * 2008-12-24 2010-08-05 Gottfried Wilhelm Leibniz Universität Hannover Sicherungsvorrichtung und Verfahren zum Betreiben einer mehrgliedrigen Maschine
JP2011209077A (ja) * 2010-03-29 2011-10-20 Kyokko Denki Kk 物体検出装置
JP2013083615A (ja) * 2011-10-12 2013-05-09 Kyokko Denki Kk 検知範囲を自由に設定できる物体検出装置
WO2016063546A1 (ja) * 2014-10-24 2016-04-28 日本精工株式会社 近接覚センサ
JP2017205819A (ja) * 2016-05-17 2017-11-24 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
JP2018103345A (ja) * 2016-12-28 2018-07-05 川崎重工業株式会社 ロボットシステム
JP2018146456A (ja) * 2017-03-07 2018-09-20 旭光電機株式会社 物体検知装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5546224U (ja) * 1978-09-21 1980-03-26
JPH09329669A (ja) * 1996-06-11 1997-12-22 Omron Corp 透明物体の光学的検出方法及びその光学的検出装置及び受光装置並びにこれら方法又は装置を用いた透明容器の液体注入方法
JPH11258356A (ja) * 1998-03-16 1999-09-24 Mitsubishi Heavy Ind Ltd 土砂崩壊検知システム
JP2006317237A (ja) * 2005-05-11 2006-11-24 Keyence Corp 多光軸光電式安全装置
DE102008063081A1 (de) * 2008-12-24 2010-08-05 Gottfried Wilhelm Leibniz Universität Hannover Sicherungsvorrichtung und Verfahren zum Betreiben einer mehrgliedrigen Maschine
JP2011209077A (ja) * 2010-03-29 2011-10-20 Kyokko Denki Kk 物体検出装置
JP2013083615A (ja) * 2011-10-12 2013-05-09 Kyokko Denki Kk 検知範囲を自由に設定できる物体検出装置
WO2016063546A1 (ja) * 2014-10-24 2016-04-28 日本精工株式会社 近接覚センサ
JP2017205819A (ja) * 2016-05-17 2017-11-24 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
JP2018103345A (ja) * 2016-12-28 2018-07-05 川崎重工業株式会社 ロボットシステム
JP2018146456A (ja) * 2017-03-07 2018-09-20 旭光電機株式会社 物体検知装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021200795A1 (de) 2021-01-28 2022-07-28 Dr. Doll Engineering Gmbh Schutzvorrichtung für einen Industrieroboter

Also Published As

Publication number Publication date
JP2023120455A (ja) 2023-08-29
JP2023115401A (ja) 2023-08-18
JP7373177B2 (ja) 2023-11-02
JPWO2020036217A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
JP2023115401A (ja) 物体検知装置
US10024753B2 (en) Sealing system having leakage sensing function
CA2671809C (en) Video surveillance system having communication acknowledgement nod
KR101924814B1 (ko) 회전 가능한 조작 부재 및 이것을 갖는 전자기기
CN107637020B (zh) 用于照明设备的上下文有关调试的方法和系统
CN112555646A (zh) 双头圆顶摄像机
JP2006197553A (ja) 非接触コネクタ
CA2991638A1 (en) Luminaire assembly and tilting mechanism for the luminaire assembly
CN105612400A (zh) 枪械保险设施
CN110160653A (zh) 安防传感器装置
JP2013083615A (ja) 検知範囲を自由に設定できる物体検出装置
US20240263769A1 (en) Pan and tilt control of luminaire
US20200403352A1 (en) Wearable display device
KR102511558B1 (ko) 다광축 센서
Swetha Design and implementation of accelerometer based robot motion and speed control with obstacle detection
KR101369894B1 (ko) 감지각 조절이 가능한 센서등
EP4328486A1 (en) Spherical moving head light fixture
JP2014036434A (ja) 携帯電子機器
EP3159709B1 (en) Apparatus and method for detecting azimuthal angle of heat source
CN112936348B (zh) 一种用于智能机器人rgb-d-t信息感知的传感器集成装置
JP2018146456A (ja) 物体検知装置
WO2019053721A1 (en) SYSTEM AND METHOD FOR MONITORING POSITION AND ORIENTATION
EP3767259B1 (en) Sensor or detector device
KR200386136Y1 (ko) 인체 감지 센서장치
KR102315870B1 (ko) 마운트의 회전 제어 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19850506

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020537105

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19850506

Country of ref document: EP

Kind code of ref document: A1