JP7259835B2 - フォークリフト用の画像処理装置、および制御プログラム - Google Patents
フォークリフト用の画像処理装置、および制御プログラム Download PDFInfo
- Publication number
- JP7259835B2 JP7259835B2 JP2020502093A JP2020502093A JP7259835B2 JP 7259835 B2 JP7259835 B2 JP 7259835B2 JP 2020502093 A JP2020502093 A JP 2020502093A JP 2020502093 A JP2020502093 A JP 2020502093A JP 7259835 B2 JP7259835 B2 JP 7259835B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- forklift
- distance
- camera
- fork
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 298
- 238000001514 detection method Methods 0.000 claims description 82
- 238000006243 chemical reaction Methods 0.000 claims description 77
- 238000000034 method Methods 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 42
- 238000005259 measurement Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 21
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 16
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 15
- 230000035939 shock Effects 0.000 claims description 12
- 238000003780 insertion Methods 0.000 claims description 11
- 230000037431 insertion Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 10
- 230000007423 decrease Effects 0.000 claims description 5
- 239000004020 conductor Substances 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 description 44
- 230000004048 modification Effects 0.000 description 44
- 238000010586 diagram Methods 0.000 description 32
- 230000003287 optical effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 6
- 229910052782 aluminium Inorganic materials 0.000 description 5
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000005111 flow chemistry technique Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 239000002994 raw material Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 210000000078 claw Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 229910002804 graphite Inorganic materials 0.000 description 1
- 239000010439 graphite Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 239000004417 polycarbonate Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000011359 shock absorbing material Substances 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/20—Means for actuating or controlling masts, platforms, or forks
- B66F9/24—Electrical devices or systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Structural Engineering (AREA)
- Civil Engineering (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Mechanical Engineering (AREA)
- Forklifts And Lifting Vehicles (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
Description
前記フォークリフトの前方側に昇降可能に支持された複数のフォークのうちの1本のフォークの先端部分に設けられ、前記フォークリフトの前方を撮影するカメラと、
前記カメラが設けられた前記フォークの前記先端部分に設けられ、前記フォークリフトの前方にある物体までの距離を検知するための検知センサーと、
前記検知センサーの検知情報に基づいて、前記カメラが取得した映像を加工する処理部と、
前記処理部が加工した加工後の映像を表示するディスプレイと、
記憶部と、を備え、
前記処理部は、前記カメラからの映像と、前記検知センサーの検知情報に基づいて、前記フォークリフトが動作する作業空間内の物体の位置、または形状を示す測距点群である距離マップを生成し、前記記憶部に蓄積する、画像処理装置。
前記第1、第2の撮像素子の少なくとも一方が、前記カメラの一部として機能するとともに、前記1、第2の撮像素子の両方が前記検知センサーとして機能し、
前記処理部は、前記第1、第2の撮像素子の双方から取得した映像に基づいて、前記フォークの前方にある物体までの距離を検出し、検出した距離に基づいて前記映像を加工する、上記(1)に記載の画像処理装置。
を備え、
前記投光器、および前記処理部は、前記検知センサーとしても機能し、前記処理部は、前記投光器による照射光、または前記パターン光を撮影した前記カメラからの映像に基づいて、前記フォークリフトの前方にある物体までの距離を検出し、検出した距離に基づいて前記映像を加工する、上記(1)または上記(2)に記載の画像処理装置。
前記第1、第2の撮像素子の少なくとも一方が、前記カメラの一部として機能するとともに、前記1、第2の撮像素子の両方が前記検知センサーとして機能し、
前記処理部は、前記第1、第2の撮像素子の双方から取得した映像に基づいて、前記フォークリフトの前方にある物体までの距離を検出し、
前記フォークの先端のテーパー部であって、上面視において先端に向けて幅が徐々に狭くなり、かつ、側面視において下面が傾斜することで厚みが先端に向けて徐々に薄くなるテーパー部の左右両側のそれぞれに、前記第1、第2の撮像素子が配置されている、上記(1)に記載の画像処理装置。
前記処理部は、前記位置検知センサーにより、前記カメラが設けられた前記フォークの位置状態を取得する、上記(1)から上記(7)のいずれかに記載の画像処理装置。
前記カメラによる取得した映像に対して、前方の物体までの距離に対応した付加情報を付加した映像を、前記ディスプレイに表示させる上記(1)から上記(8)のいずれかに記載の画像処理装置。
前記カメラによる取得した映像に対して視点変換した映像を前記ディスプレイに表示させる、上記(1)から上記(9)のいずれかに記載の画像処理装置。
前記ヘッドアップディスプレイは、虚像の投影距離が50cmから20mの範囲に設定されている、上記(12)に記載の画像処理装置。
前記フォークリフトの前方を撮影するカメラと、
前記フォークリフトの前方にある物体までの距離を測距し、距離値の分布を示す測距点群データを取得するための検知センサーと、
前記カメラが取得した映像に対して、取得した測距点群データに基づく距離値の画像を付加する加工処理を行う処理部と、
前記処理部が加工処理した処理後の映像を表示するディスプレイと、
記憶部と、を備え
前記処理部は、前記加工処理として、さらに、前記測距点群データに基づいて、前記映像に対して視点変換処理を行う、および、前記検知センサーにより取得した測距点群データを用いて3次元距離マップを作成し、前記記憶部に記憶させる、画像処理装置。
前記処理部は、前記位置検知センサーから取得した前記姿勢情報を用いて、前記視点変換処理を行う、上記(16)に記載の画像処理装置。
前記処理部は、前記フォークリフトの前方にある物体を認識するとともに、認識した前記物体それぞれまでの距離、および/または方向に対応する付加画像を生成し、生成した前記付加画像を前記物体それぞれに重畳させる態様で、前記透明スクリーン、または前記ヘッドアップディスプレイに表示させる、上記(16)から上記(19)のいずれかに記載の画像処理装置。
前記カメラにより映像を取得するステップ(a)と、
前記検知センサーで測距点群データを取得するステップ(b)と、
前記カメラが取得した映像に対して、取得した測距点群データに基づく距離値の画像を付加する加工処理を行うステップ(c)と、
処理後の映像をディスプレイに表示するステップ(d)と、
前記カメラからの映像と、前記検知センサーの検知情報に基づいて、前記フォークリフトが動作する作業空間内の物体の位置、または形状を示す測距点群である距離マップを生成し、前記記憶部に蓄積するステップ(e)と、
を含む処理を、前記コンピューターに実行させるための制御プログラム。
前記フォークリフトの前方にある物体を認識するステップ(f)を含み、
前記ステップ(c)では、前記加工処理として、前記映像に、認識した前記物体の種類、または前記物体までの距離、位置に対応した付加画像を生成し、前記映像に付加する、上記(36)または上記(37)に記載の制御プログラム。
図1は、フォークリフトの外観を示す側面図である。フォークリフト10は、本体11、運転台12、マスト13、フィンガバー14、1対のフォーク15、16、およびヘッドガード17を有する。フォーク15、16の上には、パレット91、およびパレット91上の荷物92が荷積みされている。本体11の前方には、上下方向に伸縮可能なマスト13が設けられており、フォーク15、16はフィンガバー14に支持されており、フィンガバー14を介してマスト13に上下に昇降可能に取り付けられている。マスト13に取り付けられたチェーン(図示せず)とホイールを介して、フィンガバー14がマスト13に沿って上下に移動することで、フォーク15、16は、上下方向で位置制御される。また、フォーク15、16の地面(走行面)に対する傾斜角度(チルト)は、マスト13に連結された油圧シリンダー(図示せず)により所定範囲内で変更可能である。また、両フォーク15、16間の開き角度、間隔は、フィンガバー14内にある油圧シリンダー(図示せず)により所定範囲内で変更可能としてもよい。また、フォーク15、16は一般に硬い金属で構成される。
図2は、第1の実施形態に係る画像処理装置のハードウェア構成、および処理部の機能構成を示すブロック図である。図3は、1本のフォーク15の先端部分に第1カメラ、第2カメラを取り付けた状態を示す模式図である。
図3に示すように、第1の実施形態においては、フォークリフト10の2本のフォーク15、16のうち、1本のフォーク15の先端部分に、ステレオ視(複眼ともいう)するための2台のカメラ21、22を本体11の前方が撮影領域となるように取り付けている。また、フォーク15の幅方向(Y方向)において、両カメラ21、22は所定間隔(基線長)だけ離している。同図に示す例では、左側のフォーク15に2台のカメラを取り付けているが、これに限られず、右側のフォーク16に取り付けてもよい。カメラ21、22と処理部23とは、ケーブル(図示せず)または無線で接続しており、映像信号が処理部23に伝送される。
以下、図7、図8を参照し、画角について説明する。図7は、水平方向の画角を説明する模式図である。図7においては、図6(a)~図6(c)に示す形状のフォーク15を例に示し画角を説明するが、図4(a)~図4(c)、図5の形状のフォーク15の様な、どのようなフォーク形状に対しても適用できる(図8も同様)。第1、第2カメラ21、22の画角は理想的には、前方を中心として、水平方向において180度あることが好ましい。しかしながら、先端s1にカメラ21、22を配置することは、他の物体への衝突による衝撃を考慮すると難しい。水平方向の画角の最低値としては、フォーク15の5m前方で幅2mの物体を撮影(ステレオ視)できるように、画角は44度以上(両カメラの内側への半画角が22度以上)確保されていることが好ましい。テーパー部s51にカメラ21、22を配置することで、最低値以上の画角を確保できる。幅2mの根拠は、大型のフォークリフトにおいては、2本のフォーク15、16の間隔は約2mであるため、フォーク15の当たる領域(後述の付加画像402)を最低限ステレオ視できるようにするためである。
処理部23は、画像取得部301、前処理部302、特徴点抽出部303、距離マップ生成部304、物体位置判定部305、付加画像生成部306、対応付け部307、視点変換部308、画像合成部309、および画像出力部310として機能する。これらの機能は、処理部23が、内部メモリに記憶しているプログラムを実行することにより行うが、これらの機能の一部を組み込み型の専用ハードウェア回路により行うようにしてもよい。なお、以下に説明する実施形態においては、処理部23により物体の位置、距離を把握できる距離マップを生成しているが、これに限られず、物体への距離測定だけを行うようにしてもよい。
画像取得部301は、2台のカメラ21、22にタイミングトリガーをかけて同期させる等の制御をし、これらの撮像素子200により所定のフレームレートで撮影された画像(映像)を取得する。ここで、画像取得部301は、カメラ21、22の制御に関して、撮影画角において、中央部分を用いて露出を行うようにしてもよい。これは、特にパレット91の差し込み口にフォークを挿入して、フォーク先端が差し込み口を突き抜けるまでの間においては、カメラからの映像は、中央部分のみが明るく、その周辺は暗くなるためである。すなわち、差し込み口のフォークが挿入される側と反対側を抜けた空間を適切な露出で撮影するために、画角の中央部分を用いて露出する。これにより露出オーバーにならずに中央部分からの映像を適切に撮影できる。
前処理部302は、2台のカメラ21、22から画像取得部301を介してそれぞれ取得した1組の画像の明るさ、コントラストの調整を行う。これらの調整は、既知の調整処理を適用できる。また、調整後の画像に対してさらに2値化処理等の後段の前処理を行い、処理後の画像を特徴点抽出部303に供給する。一方で、前処理部302は、前段の前処理を行ったカラー画像を視点変換部308に供給する。なお、1組の画像を、基線長に応じた位置関係で貼り付けるステッチ処理を行い、処理後の画像を視点変換部308に供給してもよく、両カメラ21、22の共通撮影領域の画像を視点変換部308に供給してもよい。
特徴点抽出部303は、1組の画像それぞれから対応付けの指標となる物体の形状、輪郭に対応する特徴点を抽出する。なお、対応付けの指標としては、色、コントラスト、エッジ、および/またはフレームの情報を用いてもよい。
距離マップ生成部304は、1組の画像の抽出した特徴点から共通の対応点を抽出し、それらの対応点から変換パラメータを用いて、特徴点それぞれまでの距離を算出する。例えば左右に配置した1対のカメラ21、22において、基線長を用いて、同じ対応点の左右の画素値のズレ量に応じてそれぞれの画素の距離値を算出する(測距)。
物体位置判定部305は、フォークリフト10の前方にある物体の3次元空間での位置を判定する。この物体の判定は、例えば各画素の距離値の類似度に応じて画素をクラスタリングすることにより行ってもよい。また、距離値の類似度に、画素の色の類似度を組み合わせてクラスタリングしてもよい。クラスタリングより判定した各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、物体位置判定部305は算定したサイズが抽出対象の解析対象の物体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。通行する作業者を追跡して行動を解析するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。また、フォークリフトが走行する環境が特定の倉庫内等で限定されるのであれば、その環境に存在する物体に応じたサイズ閾値を適用してもよい。また物体位置判定部305は、生成したフォークリフト前方の3次元の距離マップを記憶部24に蓄積する。この距離マップには、所定サイズ以上の物体それぞれの大きさ、位置の情報が含まれる。なお、上述のように、処理負担軽減のために、物体までの距離測定のみを行うようにしてもよい。
付加画像生成部306は、物体位置判定部305が判定したフォークリフト10の前方にある物体までの距離、より具体的には、フォーク15、16を延長した先にある物体までの距離に応じた付加画像(アノテーション画像ともいう)を生成する。付加画像としては、距離を示す距離梯子や、数値表示がある(後述の図10参照)。また、付加画像としては、物体の種類、距離に応じて色や態様を変更した矩形枠、または要注意物が存在する場合などに、運転者に注意喚起するためのマーク、テキストであってもよい。さらに、付加画像として、水平面、または、フォークの対パレット正面でのX-Y平面での傾き角度、開き角度、傾斜角度、もしくは地面からの高さの情報であってもよい。
対応付け部307は、カメラ21、22が撮影した2次元の画像における各物体の位置と、距離マップにおける各物体の位置との対応付けを行う。
視点変換部308は、運転台12に座る運転者の目の高さに応じた視点位置に応じて予め指定された視点位置(仮想視点位置)から見た時の角度、方向に対して、各画素点の間隔や位置を座標変換することで、画像の視点変換を行う。運転者は、視点位置(仮想視点位置)を画像処理装置20のキーボート、ポインティングデバイス、タッチセンサー等の入力デバイス(図示せず)により設定できる。また、このとき、カメラからは撮影することができない死角領域に対する表示処理を行う。例えば、死角領域(データNULL領域)を記憶部24にある、その領域に対応する画素で置換する。死角領域は、カメラの位置と、運転者の視点位置が異なる場合に生じる。また、この視点変換は、カメラ21、22の床面に対する傾斜角度、または高さに応じた画像の台形補正による変換と、3次元の距離マップを用いて、画像内の物体までの距離に応じた変換を行う場合が含まれる。例えば、撮影領域に渡って、十分に距離マップが生成できていない場合等には、単純な台形補正により行ってもよい。
仮想視点位置としては、運転者の視点位置を仮想視点位置とする視点変換処理に代えて、これよりも高い位置を仮想視点位置とする視点変換処理、または、フォークリフト10の本体から離れた位置を仮想視点位置とする視点変換処理を行ってもよい。例えば、フォーク15、16の高さ位置、または、これにパレット91、およびこれの上の荷物92の高さ相当の距離を加えた高さ位置を仮想視点位置とする視点変換処理や、フォークリフト10の上方からの仮想視点位置(俯瞰)、または背後から前方に向けた仮想位置視点(三人称視点位置)とする視点変換処理である。これにより俯瞰画像を得ることができる。俯瞰画像により、例えば、運転者の目線よりも高所の棚に荷物92を下ろすときに、フォークリフト10の前方を容易に確認できる。なお、これらの仮想視点位置の変更や、位置の設定は、フォークリフト10に設けられた入力デバイスから適宜設定できる。
画像合成部309は、付加画像生成部306が生成した付加画像を物体位置判定部305で検出した物体の位置に対応させた表示位置で、視点変換部308が生成した画像に対して重畳させ、合成画像を生成する。
画像出力部310は、画像合成部309が生成した合成画像、すなわち加工後の画像(映像)をリアルタイムに、ディスプレイ25に出力し、運転者に表示する。また、画像出力部310は、画像合成部309が生成した処理後の画像、すなわち視点変換処理、および/または付加画像を重畳した処理後の画像(映像)をリアルタイムに、ディスプレイ25に出力し、運転者に表示する。
図11は、第2の実施形態に係る画像処理装置のハードウェア構成、および処理部の機能構成を示すブロック図である。上述の第1の実施形態に係る画像処理装置(図2等)では、2台のカメラ21、22を用いて、フォークリフト10の前方の撮影および測距を行った。これに対して、第2の実施形態は、1台のカメラ21と、測距センサー22bを用いて、前方の撮影および測距を行う。第2の実施形態では、この測距センサー22bが距離を検知するための「検知センサー」として機能する。
図12は、第3の実施形態に係る画像処理装置20のハードウェア構成示すブロック図である。第3の実施形態においては、1台のカメラ21、投光器22cを備える。本実施形態においては、以下に説明する投光器22cおよび処理部23が、カメラ21と協働することでフォークリフトの前方にある物体までの距離を検知するための検知センサーとして機能する。
図13は、第1の変形例に係る、ハードウェア構成および処理部の機能構成を示すブロック図である。
図14(a)、図14(b)は、第2の変形例における1本のさやフォーク19の先端部に、第1カメラ、第2カメラを取り付けた状態を示す模式図である。本実施形態のように、さやフォーク19をフォーク15(またはフォーク16)に先端側に装着する場合には、フォークの先端部、またはフォークの先端とは、さやフォーク19の先端部、またはさやフォーク19の先端を指す。さやフォーク19は、フォーク15に覆うように装着され、ネジ等の保持具(図示せず)により固定される。
図15は、第3の変形例に係る、ハードウェア構成および処理部の機能構成を示すブロック図である。第3の変形例においては、1台(単眼)のカメラ21と、位置検知センサー27を備える。また、第3の変形例においては、処理部23にはオプティカルフロー処理部320が含まれる。本変形例においては、カメラ21の撮像素子200、位置検知センサー27、および処理部23(オプティカルフロー処理部320)が協働することで物体までの距離を検知するための検知センサーとして機能する。
図16は、第4の変形例に係る画像処理装置のハードウェア構成、処理部の機能構成、およびHUDの構成を示すブロック図である。図17は、HUDの構成を示す模式図である。第4の変形例は、ディスプレイとして、HUD25bを有する。HUD25bのコンバイナー522は、図1のディスプレイ25と同様な位置であって、フォークリフトの前方側を透過できる位置に配置されている。HUD25bにより、運転者は、図10で示した付加画像401~407のような画像を虚像として投影しながら、前方の実像をコンバイナー越しに透過視できる。なお、この第4の変形例におけるHUD25bを、上述した第1から第3の実施形態、および各変形例に適用してもよい。
図18は、第5の変形例における、1本のさやフォーク19の先端部に、第1カメラ、第2カメラ21、22を取り付けた状態を示す模式図である。第5の変形例は、第2の変形例と同様にさやフォーク19を用いたものであり、さらに衝突時の衝撃緩和を考慮した構成としている。
(画像表示処理)
図19は、第4の実施形態に係る画像処理装置20が行う表示処理を示すフローチャートである。以下、図19を参照し、表示処理について説明する。
画像処理装置20の処理部23(画像取得部301)は、最初に、第1、第2のカメラ21、22を制御し、所定のフレームレートで撮影された映像を取得する。
次に、処理部23は、それぞれのカメラ21、22から取得した対応する2枚の画像を処理することより、距離マップを取得する。この処理は、上述の前処理部302、特徴点抽出部303、および距離マップ生成部304により行われる。すなわち、取得した画像に対して、前処理を行った後、基線長を用いて、2枚の画像の特徴点の対応関係により、各画素の距離値を算出して、距離マップを生成する。
続いて、処理部23は、生成した距離マップを用いて、ステップS101で取得した2次元の映像に対して、視点変換処理を施す。この処理は、物体位置判定部305、対応付け部307、および視点変換部308により行われる。すなわち、前方にある物体の3次元空間での位置を判定し、判定した物体それぞれを、2次元の映像の各画素に対して対応付けをする。そして、運転台12に座る運転者の視点位置等に対応した、予め指定された仮想視点位置から見た時の角度、方向に対して、各画素点の間隔や位置を座標変換することで、画像の視点変換処理を行う。
処理部23は、付加画像を作成する。具体的には、付加画像生成部306は、フォークリフト10の前方にある物体と、フォーク15、16の先端との距離に応じた付加画像を生成する。また、処理部23は、接近予測を行う。すなわち、フォーク15等が物体に近づき過ぎて物体までの距離が所定値以下となった場合には発報条件を満たすと判断する。
処理部23は、ステップS104で生成した付加画像を、ステップS103で視点変換処理した画像に付加(重畳)させる加工処理を行う。具体的には、画像合成部309は、付加画像を物体の位置に対応させた表示位置で重畳させた合成画像を生成する。なお、ステップS103による視点変換処理を省略し、ステップS104による加工処理のみにより、映像に対して加工処理してもよい。
処理部23の画像出力部310は、ステップS105で生成した合成画像をリアルタイムにディスプレイ25に出力して、運転者に表示する。例えば、ステップS106において、図10に示したような画面250をディスプレイ25に表示する。また、ステップS104で接近予測として、発報条件を満たすと判断した場合には、処理部23は、ディスプレイ25周辺に設けられたスピーカーにより警告音を出力したり、所定の警告表示をディスプレイに表示したりする発報処理を行う。なお、人が所定範囲内に近づき接近予測をした場合には、発報処理として、ディスプレイ25の脇に取り付けられたスピーカーから警告音が鳴る。また、このとき付加画像407は、警告を示すために、色を変更したり、点滅させたりしてもよい。
図20は、ディスプレイ25に表示した画面251の変形例である。変形例では俯瞰画像を追加しており、画面251は、正面視の正面画像2501と俯瞰画像2502から構成される。正面画像2501は、図10の画面250と同じであり、これを縮小表示したものである。俯瞰画像2502は、付加画像生成部306が、物体までの距離値に応じて真上視点(上方視点)の俯瞰画像を生成し、これを正面画像2501に並べて表示したものである。俯瞰画像2502は、距離を示す付加画像409、およびフォーク15、16に対応するイラスト画像である付加画像410が表示されている。通常は、フォークリフト10に面する物体の前面側、あるいは前面側、側面、上面の距離値が得られるが、物体の背面側に関しては、何ら距離値の情報が得られない。そのため、背面側については表示データがない。しかしながら、フォークリフト10の運転に関しては、背面側の距離値は分からなくても、正面側の距離値が判別できれば十分である。なお、背面側に対しては、図20の例に示すように記憶部24に記憶している距離マップを参照することで、死角領域に存在する物体の輪郭を生成し、重畳するようにしてもよい。図20の破線は、死角領域の物体(トラック、作業者)の輪郭を示している。このように、俯瞰画像2502を表示することで運転者は、周囲の状況をより正しく把握することができ、より安全にフォークリフトを運転できる。
次に、図21(a)~図21(d)を参照し、死角領域の処理について説明する。図21(a)は、カメラ21、22により撮影した画像(元画像)であり、図21(b)は図21(a)の画像に対して、説明のために、画像内の各物体に符号を付与した模式図である。物体971から975は直方体の物体であり、物体971が最もカメラ21、22に近く、以下、物体972、973、974、975の順に遠く位置に配置されている。
図22は、第6の変形例に係る、ハードウェア構成および処理部の機能構成を示すブロック図である。
図23は、第7の変形例における、ディスプレイに表示した近接用画面の例である。上述の図19のステップS104では、物体までの距離が所定値以下となった場合に発報条件を満たすと判断し、警告表示等の発報処理を行っていた。第7の変形例においては、処理部23はフォーク15の先端から物体までの距離が所定距離以下、例えば2m以下になった場合には、発報処理に替えて、図23に示すような近接用画面252を生成し、ディスプレイの表示をこの近接用画面252に切り替える。図23に示す近接用画面252は、荷物92を載せたパレット91の差し込み口にフォーク15の先端を挿入する直前の状態を示している。
図24は、第8の変形例に係る画像処理装置のハードウェア構成、処理部の機能構成、およびHUDの構成を示すブロック図である。図25は、HUDに表示した荷物内容情報、空棚情報、荷役手順情報に関する虚像の例である。
11 本体
12 運転台
13 マスト
14 フィンガバー
15、16 フォーク
19 さやフォーク
191 本体部
192 蓋部
193 透明板
194 衝撃緩和材
195 熱伝導部材
20 画像処理装置
21、22 カメラ
23 処理部
301 画像取得部
302 前処理部
303 特徴点抽出部
304 距離マップ生成部
305 物体位置判定部
306 付加画像生成部
307 対応付け部
308 視点変換部
309 画像合成部
310 画像出力部
24 記憶部
25 ディスプレイ
40 基板ユニット
41 アルミプレート
42 カメラ基板
43 IMU基板
25b HUD
51 表示素子
52 虚像投影光学系
522 コンバイナー
53 移動機構
91 パレット
401~407、409~411 付加画像
Claims (38)
- フォークリフトに用いられる画像処理装置であって、
前記フォークリフトの前方側に昇降可能に支持された複数のフォークのうちの1本のフォークの先端部分に設けられ、前記フォークリフトの前方を撮影するカメラと、
前記カメラが設けられた前記フォークの前記先端部分に設けられ、前記フォークリフトの前方にある物体までの距離を検知するための検知センサーと、
前記検知センサーの検知情報に基づいて、前記カメラが取得した映像を加工する処理部と、
前記処理部が加工した加工後の映像を表示するディスプレイと、
記憶部と、を備え、
前記処理部は、前記カメラからの映像と、前記検知センサーの検知情報に基づいて、前記フォークリフトが動作する作業空間内の物体の位置、または形状を示す測距点群である距離マップを生成し、前記記憶部に蓄積する、画像処理装置。 - 1本の前記フォークに、第1の撮像素子および第2の撮像素子が、それぞれの撮影領域の少なくとも一部が重なるように設けられ、
前記第1、第2の撮像素子の少なくとも一方が、前記カメラの一部として機能するとともに、前記第1、第2の撮像素子の両方が前記検知センサーとして機能し、
前記処理部は、前記第1、第2の撮像素子の双方から取得した映像に基づいて、前記フォークの前方にある物体までの距離を検出し、検出した距離に基づいて前記映像を加工する、請求項1に記載の画像処理装置。 - 前記フォークリフトの前方に向けて光を照射する、または、前記フォークリフトの前方に向けて2次元のパターン光を照射する投光器、
を備え、
前記投光器、および前記処理部は、前記検知センサーとしても機能し、前記処理部は、前記投光器による照射光、または前記パターン光を撮影した前記カメラからの映像に基づいて、前記フォークリフトの前方にある物体までの距離を検出し、検出した距離に基づいて前記映像を加工する、請求項1または請求項2に記載の画像処理装置。 - 前記検知センサーは、前記フォークリフトの前方にある物体までの距離を検知して複数点の測距点群データを取得する測距センサーである、請求項1に記載の画像処理装置。
- 前記フォークの先端のテーパー部であって、上面視において先端に向けて幅が徐々に狭くなり、および/または、側面視において下面が傾斜することで厚みが先端に向けて徐々に薄くなるテーパー部に、前記カメラと前記検知センサーが設けられている、請求項1から請求項4のいずれかに記載の画像処理装置。
- 第1の撮像素子および第2の撮像素子が1本の前記フォークに、それぞれの撮影領域の少なくとも一部を共通するように、前記フォークリフトの前方を撮影領域として設けられており、
前記第1、第2の撮像素子の少なくとも一方が、前記カメラの一部として機能するとともに、前記第1、第2の撮像素子の両方が前記検知センサーとして機能し、
前記処理部は、前記第1、第2の撮像素子の双方から取得した映像に基づいて、前記フォークリフトの前方にある物体までの距離を検出し、
前記フォークの先端のテーパー部であって、上面視において先端に向けて幅が徐々に狭くなり、かつ、側面視において下面が傾斜することで厚みが先端に向けて徐々に薄くなるテーパー部の左右両側のそれぞれに、前記第1、第2の撮像素子が配置されている、請求項1に記載の画像処理装置。 - 前記処理部は、前記検知センサー、または該検知センサーの検知情報と前記カメラからの映像に基づいて検出した物体までの距離のデータの一部を、前記記憶部に蓄積した前記距離マップで補正する、請求項1に記載の画像処理装置。
- さらに、前記フォークの位置状態を取得する位置検知センサーを含み、
前記処理部は、前記位置検知センサーにより、前記カメラが設けられた前記フォークの位置状態を取得する、請求項1から請求項7のいずれかに記載の画像処理装置。 - 前記処理部は、前記加工した映像として、
前記カメラによる取得した映像に対して、前方の物体までの距離に対応した付加情報を付加した映像を、前記ディスプレイに表示させる請求項1から請求項8のいずれかに記載の画像処理装置。 - 前記処理部は、前記加工した映像として、
前記カメラによる取得した映像に対して視点変換した映像を前記ディスプレイに表示させる、請求項1から請求項9のいずれかに記載の画像処理装置。 - 前記カメラは、撮影画角の中央部分を用いて露出を行う、請求項1から請求項10のいずれかに記載の画像処理装置。
- 前記ディスプレイは、前記フォークリフトに取付けられたコンバイナーに虚像を投影するヘッドアップディスプレイである、請求項1から請求項11のいずれかに記載の画像処理装置。
- 前記コンバイナーは、前記フォークリフトの前方側を透過視できる位置に配置されており、
前記ヘッドアップディスプレイは、虚像の投影距離が50cmから20mの範囲に設定されている、請求項12に記載の画像処理装置。 - 前記フォークの先端部分に設けられ前記カメラ、および前記検知センサーは、衝撃緩和部材を介して、前記フォークの本体部に取付けられている、請求項1から請求項13のいずれかに記載の画像処理装置。
- 前記カメラ、および前記検知センサーを構成する電子部品の少なくとも一部は、可撓性で高熱伝導性の材料で構成された熱伝導部材を介して、前記フォークの本体部に接続されている、請求項14に記載の画像処理装置。
- フォークリフトに用いられる画像処理装置であって、
前記フォークリフトの前方を撮影するカメラと、
前記フォークリフトの前方にある物体までの距離を測距し、距離値の分布を示す測距点群データを取得するための検知センサーと、
前記カメラが取得した映像に対して、取得した測距点群データに基づく距離値の画像を付加する加工処理を行う処理部と、
前記処理部が加工処理した処理後の映像を表示するディスプレイと、
記憶部と、を備え
前記処理部は、前記加工処理として、さらに、前記測距点群データに基づいて、前記映像に対して視点変換処理を行う、および、前記検知センサーにより取得した測距点群データを用いて3次元距離マップを作成し、前記記憶部に記憶させる、画像処理装置。 - 前記カメラは、可視光領域に感度を有する撮像素子を含む、請求項16に記載の画像処理装置。
- 前記カメラは、前記フォークリフトの前方側に昇降可能に支持されたフォークに、前記前方を撮影するように設置されている、請求項16または請求項17に記載の画像処理装置。
- 前記カメラは、撮影画角の中央部分を用いて露出を行う、請求項18に記載の画像処理装置。
- さらに、前記カメラの姿勢情報を取得する位置検知センサーを備え、
前記処理部は、前記位置検知センサーから取得した前記姿勢情報を用いて、前記視点変換処理を行う、請求項16に記載の画像処理装置。 - 前記記憶部に記憶された前記3次元距離マップは、前記フォークリフトが使用される建物もしくは設備に関する図面データ、前記建物に設置されたセンサーから得られた測距点群データ、他の車両の位置情報、および/または前記建物で用いられる物流情報システムから取得した荷物の位置情報が反映されている、請求項16に記載の画像処理装置。
- 前記3次元距離マップには、前記建物もしくは設備に関する、床面、壁面、窓、または照明装置の位置情報が含まれている、請求項21に記載の画像処理装置。
- 前記視点変換処理は、前記フォークリフトの運転台に座る運転者の視点位置を仮想視点位置とする視点変換処理、前記運転者の視点位置よりも高い位置を仮想視点位置とする視点変換処理、または、前記フォークリフトから離れた位置を仮想視点位置とする視点変換処理である、請求項16から請求項22のいずれかに記載の画像処理装置。
- 前記運転者の視点位置を仮想視点位置とする前記視点変換処理は、前記カメラの地面に対する角度、もしくは高さに応じた台形補正による視点変換処理、または、前記測距点群データ、もしくは記憶部に記憶した3次元距離マップを用いた視点変換処理である、請求項23に記載の画像処理装置。
- 前記運転者の視点位置よりも高い位置を仮想視点位置とする前記視点変換処理は、前記測距点群データまたは記憶部に記憶した3次元距離マップを用いた視点変換処理である、請求項23に記載の画像処理装置。
- 前記運転者の視点位置よりも高い位置を仮想視点位置とする前記視点変換処理、または前記フォークリフトから離れた位置を仮想視点位置とする視点変換処理では、前記カメラの死角領域に関しては、前記カメラの画角において、前記死角領域が形成される物体の上方で、かつ、該物体よりも遠い距離にある物体の表面のテクスチャーを、前記死角領域に配置する、請求項23または請求項25に記載の画像処理装置。
- 前記運転者の視点位置よりも高い位置を仮想視点位置とする前記視点変換処理、または前記フォークリフトから離れた位置を仮想視点位置とする視点変換処理では、前記カメラの死角領域に関しては、記憶部に記憶した3次元距離マップにおける物体の輪郭情報を用いて、前記死角領域に対して、前記死角領域に存在する前記物体の輪郭を重畳させる、請求項23または請求項25に記載の画像処理装置。
- 前記視点変換処理は、物体までの距離に応じて、視点変換処理の有無、または強度を変更する、請求項16から請求項27のいずれかに記載の画像処理装置。
- 前記ディスプレイは、前記フォークリフトの前方を透過視できるように前記フォークリフトに取り付けられた、透明スクリーン、またはヘッドアップディスプレイであり、
前記処理部は、前記フォークリフトの前方にある物体を認識するとともに、認識した前記物体それぞれまでの距離、および/または方向に対応する付加画像を生成し、生成した前記付加画像を前記物体それぞれに重畳させる態様で、前記透明スクリーン、または前記ヘッドアップディスプレイに表示させる、請求項16から請求項19のいずれかに記載の画像処理装置。 - 前記処理部は、前記フォークリフトの前方にある物体を認識するとともに、前記加工処理として、前記映像に、認識した前記物体の種類、または前記物体までの距離、位置に対応した付加画像を生成し、前記映像に付加する、請求項16から請求項29のいずれかに記載の画像処理装置。
- 前記処理部は、前記物体としてパレットを認識した場合に、前記パレットの差し込み口の形状により、前記パレットに対する傾きを判定し、判定した前記パレットの水平面の傾き量に応じた前記付加画像を生成する、請求項30に記載の画像処理装置。
- 前記処理部が生成する前記付加画像には、前記フォークリフトが使用される建物で用いられる物流情報システムから取得した荷物の内容情報、棚の空き状況を示す空棚情報、荷役する手順を示す荷役手順情報の少なくとも一つが含まれる、請求項29から請求項31のいずれかに記載の画像処理装置。
- 前記処理部は、前記物体までの距離に応じて上方視点の俯瞰画像を生成し、生成した俯瞰画像を追加して前記ディスプレイに表示する、請求項16から請求項32のいずれかに記載の画像処理装置。
- 前記処理部は、前記フォークリフトの前方にある物体を認識するとともに、前記フォークリフト、もしくは前記フォークリフトのフォーク先端からの距離が所定値以下になった場合に、警告を発する、または前記ディスプレイの表示を近接用画面に切り替える、請求項16から請求項33のいずれかに記載の画像処理装置。
- 前記処理部は、前記フォークリフトの前方にある物体を認識するとともに、前記距離値の画像において認識した前記物体のフォーク先端からの最短距離に関する情報を出力する、請求項16から請求項34のいずれかに記載の画像処理装置。
- フォークリフトに用いられる画像処理装置であって、前記フォークリフトの前方を撮影するカメラと、前記フォークリフトの前方にある物体までの距離を測距し、距離値の分布を示す測距点群データを取得するための検知センサーと、記憶部と、を備える画像処理装置を制御するコンピューターで実行される制御プログラムであって、
前記カメラにより映像を取得するステップ(a)と、
前記検知センサーで測距点群データを取得するステップ(b)と、
前記カメラが取得した映像に対して、取得した測距点群データに基づく距離値の画像を付加する加工処理を行うステップ(c)と、
処理後の映像をディスプレイに表示するステップ(d)と、
前記カメラからの映像と、前記検知センサーの検知情報に基づいて、前記フォークリフトが動作する作業空間内の物体の位置、または形状を示す測距点群である距離マップを生成し、前記記憶部に蓄積するステップ(e)と、
を含む処理を、前記コンピューターに実行させるための制御プログラム。 - 前記ステップ(c)では、前記加工処理として、さらに、前記測距点群データに基づいて、前記映像に対して視点変換処理を行う、請求項36に記載の制御プログラム。
- 前記処理は、さらに、
前記フォークリフトの前方にある物体を認識するステップ(f)を含み、
前記ステップ(c)では、前記加工処理として、前記映像に、認識した前記物体の種類、または前記物体までの距離、位置に対応した付加画像を生成し、前記映像に付加する、請求項36または請求項37に記載の制御プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018030793 | 2018-02-23 | ||
JP2018030793 | 2018-02-23 | ||
JP2018042292 | 2018-03-08 | ||
JP2018042292 | 2018-03-08 | ||
PCT/JP2019/002062 WO2019163378A1 (ja) | 2018-02-23 | 2019-01-23 | フォークリフト用の画像処理装置、および制御プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2019163378A1 JPWO2019163378A1 (ja) | 2021-03-04 |
JPWO2019163378A5 JPWO2019163378A5 (ja) | 2022-01-25 |
JP7259835B2 true JP7259835B2 (ja) | 2023-04-18 |
Family
ID=67686835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020502093A Active JP7259835B2 (ja) | 2018-02-23 | 2019-01-23 | フォークリフト用の画像処理装置、および制御プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7259835B2 (ja) |
WO (1) | WO2019163378A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7272197B2 (ja) * | 2019-09-13 | 2023-05-12 | 株式会社豊田自動織機 | 位置姿勢推定装置 |
CN110733424B (zh) * | 2019-10-18 | 2022-03-15 | 深圳市麦道微电子技术有限公司 | 一种行车视频系统中地面位置与车身水平距离的计算方法 |
JP7085576B2 (ja) * | 2020-02-27 | 2022-06-16 | 三菱ロジスネクスト株式会社 | 移動制御システム、移動体、制御方法及びプログラム |
KR102606604B1 (ko) * | 2020-07-20 | 2023-11-27 | 세메스 주식회사 | 가스 실린더 이송 장치 및 이를 포함하는 가스 실린더 물류 시스템 |
CN113280855B (zh) * | 2021-04-30 | 2022-07-26 | 中国船舶重工集团公司第七一三研究所 | 一种多源传感货叉智能感知系统及方法 |
JP2024090081A (ja) * | 2022-12-22 | 2024-07-04 | 三菱ロジスネクスト株式会社 | 視界補助システム、産業車両、視界補助方法及びプログラム |
CN115848878B (zh) * | 2023-02-28 | 2023-05-26 | 云南烟叶复烤有限责任公司 | 一种基于agv的烟框识别与堆叠方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002087793A (ja) | 2000-09-07 | 2002-03-27 | Toshiba Fa Syst Eng Corp | パレット積載装置 |
JP2003246597A (ja) | 2002-02-20 | 2003-09-02 | Fujitsu General Ltd | フォークリフト用カメラシステム |
JP2007084162A (ja) | 2005-09-20 | 2007-04-05 | Toyota Industries Corp | フォークリフトにおける荷役作業支援装置 |
JP2009111946A (ja) | 2007-11-01 | 2009-05-21 | Alpine Electronics Inc | 車両周囲画像提供装置 |
JP2011195334A (ja) | 2010-09-03 | 2011-10-06 | Shinmei Ind Co Ltd | フォークリフトの安全装置 |
JP2013086959A (ja) | 2011-10-21 | 2013-05-13 | Sumitomo Heavy Ind Ltd | フォークリフトのフォーク位置決め支援装置および方法 |
JP2016210586A (ja) | 2015-05-12 | 2016-12-15 | 株式会社豊田中央研究所 | フォークリフト |
WO2017090568A1 (ja) | 2015-11-26 | 2017-06-01 | 京セラ株式会社 | 表示装置、移動体、および光源装置 |
JP2017174197A (ja) | 2016-03-24 | 2017-09-28 | 日産自動車株式会社 | 立体物検出方法及び立体物検出装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09309696A (ja) * | 1996-05-21 | 1997-12-02 | Toyo Umpanki Co Ltd | フォークリフト |
JP2003063793A (ja) * | 2001-08-30 | 2003-03-05 | Nippon Yusoki Co Ltd | フォークの接触検知センサ |
JP2006096457A (ja) * | 2004-09-28 | 2006-04-13 | Toyota Industries Corp | フォークリフトの作業支援装置 |
US8396653B2 (en) * | 2010-02-12 | 2013-03-12 | Robert Bosch Gmbh | Dynamic range display for automotive rear-view and parking systems |
JP5529943B2 (ja) * | 2012-09-21 | 2014-06-25 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
JP6505470B2 (ja) * | 2015-02-27 | 2019-04-24 | 株式会社デンソー | ノイズ除去方法および物体認識装置 |
JP6813268B2 (ja) * | 2016-02-16 | 2021-01-13 | 株式会社小松製作所 | 作業車両 |
JP6721998B2 (ja) * | 2016-02-23 | 2020-07-15 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
JP3205015U (ja) * | 2016-04-18 | 2016-06-30 | 株式会社豊田自動織機 | 有人無人兼用フォークリフト |
-
2019
- 2019-01-23 WO PCT/JP2019/002062 patent/WO2019163378A1/ja active Application Filing
- 2019-01-23 JP JP2020502093A patent/JP7259835B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002087793A (ja) | 2000-09-07 | 2002-03-27 | Toshiba Fa Syst Eng Corp | パレット積載装置 |
JP2003246597A (ja) | 2002-02-20 | 2003-09-02 | Fujitsu General Ltd | フォークリフト用カメラシステム |
JP2007084162A (ja) | 2005-09-20 | 2007-04-05 | Toyota Industries Corp | フォークリフトにおける荷役作業支援装置 |
JP2009111946A (ja) | 2007-11-01 | 2009-05-21 | Alpine Electronics Inc | 車両周囲画像提供装置 |
JP2011195334A (ja) | 2010-09-03 | 2011-10-06 | Shinmei Ind Co Ltd | フォークリフトの安全装置 |
JP2013086959A (ja) | 2011-10-21 | 2013-05-13 | Sumitomo Heavy Ind Ltd | フォークリフトのフォーク位置決め支援装置および方法 |
JP2016210586A (ja) | 2015-05-12 | 2016-12-15 | 株式会社豊田中央研究所 | フォークリフト |
WO2017090568A1 (ja) | 2015-11-26 | 2017-06-01 | 京セラ株式会社 | 表示装置、移動体、および光源装置 |
JP2017174197A (ja) | 2016-03-24 | 2017-09-28 | 日産自動車株式会社 | 立体物検出方法及び立体物検出装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019163378A1 (ja) | 2019-08-29 |
JPWO2019163378A1 (ja) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7259835B2 (ja) | フォークリフト用の画像処理装置、および制御プログラム | |
JP2019156641A (ja) | フォークリフト用の画像処理装置、および制御プログラム | |
JP6827073B2 (ja) | 構造化光およびタイムオブフライトを用いた深度マッピング | |
US10915783B1 (en) | Detecting and locating actors in scenes based on degraded or supersaturated depth data | |
US10401143B2 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
CN109069132B (zh) | 用于辅助型3d扫描的系统和方法 | |
CN110073659B (zh) | 图像投影装置 | |
US9563981B2 (en) | Information processing apparatus, information processing method, and program | |
US20180061034A1 (en) | Deformation Detection and Automatic Calibration for a Depth Imaging System | |
JP2024040313A (ja) | 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム | |
US20140307100A1 (en) | Orthographic image capture system | |
US20150098623A1 (en) | Image processing apparatus and method | |
KR20190028356A (ko) | 범위-게이트 깊이 카메라 어셈블리 | |
CN107076553B (zh) | 使用结构光的增强对象检测 | |
US20170061689A1 (en) | System for improving operator visibility of machine surroundings | |
JPWO2019163378A5 (ja) | ||
KR101523046B1 (ko) | 영상처리기반의 거리 측정장치 | |
JP2019142714A (ja) | フォークリフト用の画像処理装置 | |
JP5874252B2 (ja) | 対象物との相対位置計測方法と装置 | |
JP2014157051A (ja) | 位置検出装置 | |
JP2013024735A (ja) | 移動体及び移動面検出システム | |
KR102536448B1 (ko) | 지게차의 전방 충돌 위험 감지 모니터링 장치 | |
JP4804202B2 (ja) | ステレオ式監視装置 | |
EP3929690A1 (en) | A method and a system for analyzing a scene, room or venueby determining angles from imaging elements to visible navigation elements | |
JP2016185768A (ja) | 車両用表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7259835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |