TWI242701B - Autonomous moving robot - Google Patents

Autonomous moving robot Download PDF

Info

Publication number
TWI242701B
TWI242701B TW093106652A TW93106652A TWI242701B TW I242701 B TWI242701 B TW I242701B TW 093106652 A TW093106652 A TW 093106652A TW 93106652 A TW93106652 A TW 93106652A TW I242701 B TWI242701 B TW I242701B
Authority
TW
Taiwan
Prior art keywords
distance
image
person
mobile robot
spontaneous
Prior art date
Application number
TW093106652A
Other languages
English (en)
Other versions
TW200508826A (en
Inventor
Tatsuo Sakai
Tomoharu Nakahara
Hitoshi Kitano
Yukihiko Kitano
Tsuyoshi Yamane
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Publication of TW200508826A publication Critical patent/TW200508826A/zh
Application granted granted Critical
Publication of TWI242701B publication Critical patent/TWI242701B/zh

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

1242701 九、發明說明: 一、【發明所屬之技術領域】 二可迴避障礙物而移動至目的地之自發移動機器人。 傳統上,雷射雷達或聲納等之 ;進控制之自發移動機器人為大家所熟知。為了使自 要檢測障礙物,尚需要實施用以辨識檢“之物b ‘計測。時,必須針對3次元空間全域實施精密之 、 寸利用彳疋以攝影機取得之影像所得到之空間資1來與 == 系大家所熟知。例如,利用距離資訊及影像資訊實施: 人(參照吳國專利第5525882號)、及利用CCD攝影機及超立 it障礙物之側向位置之技術(參照日本特開2咖-123298 唬公報)為大家所熟知。 又’利用2台攝影機之影像檢測人物之頭部及正面臉部,並實施 ^物辨識且移動之機器人亦為大家所熟知(參照日本特開細―5⑽ 就么報)。該文獻係利用立體影像來計算對象物之距離,然而,檢測到 =物的距離太近時誤差會較A,故採用距離制器之距離資訊。又, ^立體攝景之影像檢獻物之臉部並計算至人物為止之距離之自發 =動之機為人亦為大家所熟知(參照日本特開麵_326274號公報)。春 三、【發明内容】 …j而’上述之美國專利第5525882號所示之技術,係以具有成為 =進IV礙之物體面之&礙物為對象,並未在判斷物體為何情形下實施 行進控1。又,日本特開2000-123298號所示之技術,只單純辨識障- 礙物之橫向寬度而已,也未在觸物體為何情形下實施控制。又,日, ^特開測2—56388號及日本特開2GGG-326274號所示之技術,主要係 /、利用立體影像資訊來檢測人物,故檢繼度較低,而容易出現障礙 物之錯誤檢測。 為了解決上述課題,本發明之目的係在提供一種自發移動機器 6 1242701 用可檢測至物體之距離及方向之雷射雷達或超音波❹指(聲納) 旦 计测機構所檢測到之距離資訊求取之物體形狀資訊、及具有和 理所得ί”部位相關之屬性之區域資訊進行整合,判斷檢測 、為人,實現高信賴性之障礙物辨識,而可安全且順利的行進。 減t達成上述課題,本發明之一邊迴避障礙物一邊行進之自發移 綠堯I具有用以儲存行進區域之地圖資訊、及以行進為目的之各 輪^之=機構;用以將目的地及行進齡輸人題述記憶機構之 ^以=2 i用以產生至目的地為止之行進路徑之_產生機構; 取得機s障^勿之物體在内之行進路徑上之環境資訊之環境資訊 構取俨夕-用以二轭行進之行進機構;用以依據前述環境資訊取得機 以及:以=前述地圖資訊來辨識自己位置之自己位置辨識機構; 自己位述^進機構,在一邊利用前述自己位置辨識機構辨識 ,、邊迴避障礙物並到達目的地之行進控制機構。 取得機構具有:職攝取行進路徑上之環境影像之 貫施前述攝取之影像f料之演算處理,並析出具有和 進二上二=之區域之影像辨識處理機構;用以檢測存在於行 w•田6衣兄内之物體’並計測該物體之距離及方向之距離計測穿 狀施前述計測到之物體之距離資料之演算處理來求取物體形 m jr ,, Z .述圖像辨5戠處理機構析出之前述屬性之區域之位 在兩析機構辨識成『疑似人』之物體之位置,且 首致___軸人之魏辨識機構。 垮資旦v德次 』之位置貝汛、及利用可得到寬廣區域之環 C ; = 具=體部位相關屬性之區域之位置資訊進行 性之人之檢測。進而’竇ίρ Λ可鑛檢測到有人,故可實現高信賴 上述位《訊亦包括方向在移咖人之安全且順利之行進_ 上述本發明中,影像辨識處理機構只要針對距離資訊解析機構求 7 1242701 賴獅==構只要針 之環境辨識。 Μ域减理’故可實施高信賴性 之=施距離計測即可,而前述環境 == 之區域方向之部份實施辨識處理即可。因子:=析出 取得處理。尤j:杲,左AΛ 4 自矛、”、、用之距離資訊 狀者時,例=要=與 咖㈣m炎〇亦 識別成柱狀物時、或存在眾多柱或卓 得距_======嫩候補區域取 平行面辑晴 置計測精度之計測龍阿實赠雜之 = 測平面上之障礙物之形狀,故可當做用以推定障礙物之資Γ ^述輯倾騎機構只要·距離倾之演算處輯求取之物 體„歡之範圍内即將該物體辨識成『疑似人』即可。因此, 二α人站立時之人腳、或人坐在椅子上時之人或椅子之腳會被 上述距離資訊解析機構只要在計_之至物體為止之距離和儲存 於地圖上之至物體為止之距離為不一致時,將檢測到之物體辨識成『疑 似2即可。因此’因植容祕地圖上所沒有之物體满成人,故 很簡單即可實現人之檢測。可消除將_於牆壁上之人的相片等誤認 為人之錯誤辨識。 上述攝影裳置係設置於自發移動機器人之攝影機,只要能將利用 其攝取之影像座標變換成自發移動機器人之基準座標系即可。因此, 因為固^設置於特定之方向而使構成較為鮮,而實現低成本之攝影 8 1242701 裝置。 定色w取之_料檢挪出特 域之形狀實施演算處理=特彳 =二 滿足預定之形狀特徵條件時,將^二、要&測到之特疋色區域 因此,糊影像上可充分代表人;====人』即可。 積、似要麵鱗憎酬有蚊能區域之面 動機器人至人之距離而預定之該距離之人之膚色區域 積之比’並將該比與預定之間 二 人是否注意到自發移動機器人即進^比^秋此判断檢測到之 尚可辨識檢測到之人是否注意到自發^因哭為=可判斷是否有人, 依據人之狀態資訊而實現安全且順利之移動^作。μ人之狀恶,故可 ㈣ifff控制機構只要以下述方式控制行進機新可,亦即,被 糊^輸咖峨之距離内 ,自發鶴機ϋ人之驗方向沒有被觸成人之物體但有障 礙物,則麵’若鱗礙__行進。㈣,可雜人的安全。 上述行進控制機構亦可以如下所示之方式控制行進機構,亦即, 被辨識成蚊㈣健自發鷄機狀之岐 = ==人之物體並行進。因此,在有人而必須=並繼 地刪,可在確保人之安全之情形下執行動作。亦即,因 柄於檢測到之物體以人時無需以保持距離之方式進行迴避,而可 德迴避距離’故可以良好效率實現自發移動機器人之通行。 上述行進控制機構只要以下述方式控制行進機構即可,亦即,被 2成人之物體位於預定之距離内時,對應該距離、或距離及角度來 3移動速度。因此,可以在不會有令人產生不安感之動作下,實施 1良好之移動。又,檢測到之物體不是人時,無需降低速度,而可 以良好效率實現自發移動機器人之運行。 上述行進控制機構亦可以下述方式控制行進機構,亦即,判斷檢 1242701 測到之人注意到自發移動機器人時會繼續接近,未注意到時, ^到之人保持大於預定之距離以上之距離。因此,自發移動機器人^ 會接近未注意到自發移動機器人之人,而不會威脅到人。 士述行進控制機構亦可以在通過檢測到之人之附近時,採取引 ΐΐϊί喚起注意行動。因此,對於人而言,可提高自發移動機器二 上述影像貪訊取得機構只要可對檢測到之人實施攝影並將誃旦 儲存於。己it機構、將影像傳送至遠程站即可。因此,可使自 機器人具有監視機能,而獲得安全效果及防犯效果。 X夕 四、【實施方式】
令固曲 一 _ 町蚵不兔明之一貫施形恶之自發移動機琴人搶 仃《兄,、。第1圖係本裝置之方塊構成。自發移動機器人i具有 2存仃進區域之地圖資料、及崎進為目的之各種參數之 用以對記憶機構2輸入目的地及行進指令之輸入指示機構3 ; = 2, 為止之行進路徑之路徑產生機構41 ;用以取得包含障礙物之 $细請稱紅之環„歡魏#縣賴構 機構5 μ讀據魏f訊取得機構6取得之魏==丁 料辨識自己位置之自己位置辨識機構42;以及用以
==:構42持續辨識自己位置並迴避障礙物之行進機構t 之攝;,if 用以攝取行進路徑上之環境影像 機構7);用讀爾於俩«訊取得 體之距離及物體之方向之距離計測装置=二該物 離資料之演算處理之距離資訊解析機、槿’ /貝她别述计測到之距 機:8);以及肋依據卿_===== 减之魏辨識機構9。環境辨_ 1242701 至行進控制機構4。 甲之自己位置位於地圖上之那一個位置,並利用 兄技班6取得之自己位置資訊實施自己位置推定値之補正。 得機槿構6所得到之自己位置資訊以例如環境資訊取 地圖資/ 幟預先設置於行輯境内,又,將該標幟登錄於 依成為自己位置f訊°行進控制機構4 訊,檢索地圖卜疋f置為基準而傳送過來之相對位置之標幟位置資 準而登錄標幟。檢測到標幟時,可以該標幟之位置為基 傳送至riT^Tuf取賴構6在行進巾會檢卿礙物,將触置資訊 專U 機構4,行触麵構4 _迴賴障礙物之方式修正 識輸出_行進機構5。如此,自發移動 地i b 細稱礙物㈣著行麟徑行進至指示之目的 做距:器人1之外觀。此自發移動機器人1具有當 —ΓΛ且=距離計測裝置81使用之雷射雷達(雷射測距 ^相對自㈣訊取得機構7之攝影裝置71使用之設置於 之攝影跡又二i=進二了r平旋轉)之旋轉機構咖上 =視車輪52之__行進_,w視車 ==== 。。以下,依序郷像魏取賴_始詳細制轉置。b、 (影像資訊取得機構之構成) 本發明之自發移動機器人1將利用帝帝 理所得到之嶋對影像處 得機構 7 之柳Μ。_ w 72 _ A/Dy^== 1242701 杉色攝影機(攝影裳置)7〇 其儲存於記憶體62。對号^ 叙數位化,並以數位影像將 63呼叫記載著處理演曾;^决异處理之CPU 64會從程式記憶體 理步驟對數位影像ϋ &體’CPU 64使用該軟體以以下所示之處 65經由環境辨气機^之檢測處理。影像處理結果則以通訊控制部 ?機構9傳送至行進控制機構4。 人本人讀H)猶自發移動機器 識處理機構72)之摔作及像貧祕得機構7(攝影機70及影像辨 識處理機構72呈右處理結果,亦可如第4圖所示,使影像辨 示部69。L亦、^ ^控制部⑼、鍵盤67、顯示控制部⑽、以及顯 之操作。 袖通訊控制部65從外部控制影像資訊取得機構7 (攝影裝置) 5 ®B 1 ^ ,定於_動機器人:====, 進方向i〇a前方之景象。此攝影機"7〇之座ί 軸叫版输標編。一 攝織置71取得之影歸料實施演 性係使用人之頭部,六1Λ方法進们兄明。此處’人體部位相關屬 體處理流程(人辨識處係從影像辨識人之整 :=、實 ⑺1彳飄之从成分触影雜存於記紐邮1〇3)。 將。色之3成分之平均亮度1令_/3作成影像,並 之檢ί=1 : 62(S1G4)。其次,實施影像中之膚色區域 形狀於、^( 刺之膚色區_實施依據邊緣影像之頭部 乂欢〜理(S1G6)。將檢_之頭部位置#做人辨識結果並輪出至 12 1242701 環境辨識機構9。 入旦^述=理流程利用處理對象之影像來進行說明。第7圖A靜 心像弟7圖B係膚色區域檢 ,A係輸 上之膚色區域之影像,第7圖D係輸出之忒41s係邊緣影像 輪入影像21檢測声9yl Q, 辨4、、、σ果之讀。首先,從 色區域24〜26在^缘:像27: ^像23) ’因為只針對檢測到之膚 率良好之處理 象上貫闕部職檢_理,故可實現效 之彩色成分之G R ^ 如成分、G成分係利用各像素 貫施標準化,得到實施標準化之値。 )職) 圖所示,囡泉* τ 舣而3,人的膚色如第8 素所求取# ^形成1舰域20 ’驗_色影像之各像 ,、哀取之軚皁化r、g値疋否位於該區域20内,即可判定該傻去口 否為膚色。此膚色區域2G係預細綠多影像之膚色熱來錢者疋 旁田Γ對膚色區域之檢測處理進行詳細說明。第9圖係膚色區域檢測 处J、級程。百先,CPU 64實施記憶體62之用以儲存膚色區域之膚色 像部份之初始化⑽1)。其次,針對輸人影像之t個像素,利用同計算/ 式 r二R/(R+G+B)、g :G/(R+G+B)實施 R 成分、G 成分之標準化(S2〇°2): 檢查此標準化之r成分、G成分之r、g値是否存在於膚色區域別内 (S203),若存在於膚色區域内,則判斷該像素係膚色(S2〇3之是),在 對應膚色衫像之位置標圮膚色旗標(S204)。對輸入影像之全部像素結 束前述處理後(S205之是),在膚色影像上實施標記著膚色旗標之像素 之群組化,依據該群組,作成例如由矩形區域所構成之膚色區域。對 此膚色£域貫施標示處理,貫施各區域之區別,而得到前述第7圖b 所示之膚色區域24〜26(S206)。 針對從檢測到之膚色區域利用投票處理來檢測頭部形狀之方法進 行說明。第10圖a係用以限定投票處理所使用之投票範圍之投票框, 第10圖b係該投票框之使用方法。頭部形狀之檢測上,係利用頭部具 有大致圓形之形狀。例如,在人之臉部影像上實施邊緣析出之影像處 13 1242701 理⑷如’針對影像亮度之微分處理)之邊緣影像34,可制代表 it邊緣像titr設定著將此邊緣影像34之各像素點當做^票 孟(投票相)之投示工間。又,針對邊緣像辛隹人π =對於像素36之亮度梯度方向36a之方式,;;各像素二亮度 :緣二==::有部輪廓之 將以包含檢測對象之頭部大小在内之方式設定之棒狀投單框 中央點32 ’例如配合邊緣像素36將投票框31之方向#題邊 36之亮度梯度方向36a,投票至和投票框31之各投票盒33重疊之於 票,之全部投票盒。針對代表臉部輪廓之邊緣像素集合35 : $貫施此投票後,如星記號39所示,臉部k之投票盒之投票會多於 其他投票盒。如此,因為沿著頭部外形之投票處理之結果會集中、 ’故有投票值大於投票空間内預定之閣値之投票盒時,則 判疋存在者以該投票盒為中心之頭部。 ^對頭部形狀之檢測處理進行_說明。第u嶋頭部形狀檢測 64實施例如對應膚色區域24之亮度影像之微分, 作成竞度梯度影像及邊緣影像⑽υ。其次,針__存投 1體空間之投票空間實施初始化⑽2)。其次,針對膚色區域^ 之王。卩邊緣像素,對各雜像素之亮度梯度方向 框之選取讀m各投票盒實献票⑽3)。絲_ =之全部邊緣像素之投票後(s綱),魅是否存在投票㈣預定之間 ί投票盒’存在前述投票盒時(S3G5之是),將該膚色區域之t 心位置纽頭雜置,並經由通訊控辦65_至 9=)。針對全部能區域實駐述處理,結麵部形狀檢測處籌理 (S307)。輯之第7圖D時,膚色區 2 針對影像上從膚色區域檢測鋼雜置之位置之用以特定實空間 之^在方向之方法進行說明。實空間之人存在方向 ^^ 影像辨識處理機構72實施。 疋係利用 14 1242701 攝影裝置71為前述第5圖所示之攝影機70時,可以從影像上之 臉部大小、及影像上之臉部位置可以計算出人所在位置之概略方向。 以如上所示方式特定之人所在位置之概略方向,會成為人存在方向之 候補。利用影像辨識處理機構72辨識成人存在方向之候補之相關結 果,和影像上之頭部位置檢測結果相同,會被從通訊控制部65傳送至 環境辨識機構9。若有複數之辨識結果,則會傳送全部結果。 (距離資訊解析機構)
針對利用雷射雷達實施障礙物之位置辨識進行說明。第12圖A係 利用雷射雷達83實施障礙物之距離制,第12圖㈣利關雷射雷 達之距離計測結果。距離計測裝置81採用雷射雷達83時,例如,以 各一疋角度ΔΘ發射雷射光束並受光,實施特定角度範圍之水平掃描。 利用雷射雷達83所得狀距離倾,係由沒姐射光之受光或雷射光 反射物體位於特定距離之遠方時之距離L以上之資料、及利用障礙物〇 之肋^所得到=障礙物q之距離L1、L2 #所構成。若糊以例如〇. 5 之-疋角度ΔΘ實施檢測之—射距離資料,則可辨識特定形狀物之 位置(參照日本特開2002-202815號公報)。 、利用距離資訊解析機構82針對前述距離倾實施演算處理 測,之IV礙物寬度餘於歡之範圍内之㈣⑽定雜
3體Γ成例人之腳而視為人之候補。如此,判斷檢測到預: 卩2之見度以下、或触設定之寬度範_之物體之位置上, =二腳)或椅子。該特定形狀物之(分布)位置如後面所述, 離資__ 82傳妓環此麟及方_會從距 果所i72之縣辨識結 係人之存在方向,射方。兩者纽—断,湖斷該方向 寻μ方向及距離傳送至行進控制機構4。 又,利用距離計測裝置81之雷射雷達83所得到之特定形狀物(人 15 1242701 系)之次%L。之貝料^1)、θ<^),係雷射雷達83之座標系(感測器座標 此處,如後述之第21圖所示,距離資訊解析機構會實施 rl ^主之位置之座標轉換,並以自發移動機器人本體10之座標系 UK、VR)表現。 (特定形狀物之檢測)
針對_雷财達實補定形狀物植置觸進行綱。第13圖 =用雷射雷達實施距離計測之情形,第13圖B係糊雷射雷達之 ^離相結果。距離計測裝置81採用雷射雷達83時,例如,以各_ 疋角,ΔΘ發射魏光束並受光,實施特定肢範圍之水平掃描,可得 第3圖斤示之雷射反射物體、〇B2、及代表雷射源之距離 、1之連串資料。從角度扣0開始第i個掃描之距離資料係D(i)。 以下之說明巾,係在特定之掃描肖度範圍實施N次之距離計測(〇$ 針對實施特定形狀物掃描前後之距離資料之特性進行說明。第Μ 圖A係至特定形狀物為止之距離資料D⑴圖,第14圖⑽同距離資料 、、户刀ΔΙ)(〇圖(這些圖皆為一般的圖,圖中之參數n為卩二㈤時,和前 ,第上3圖之測定結果一致)。一般而言,檢測到障礙物時,在該障礙 物之範圍内,距離資料D⑴會呈現較低之値(i=m、m+l、··.、⑽之點)。 又,檢測到之距離龍D⑴在障礙物之前後會呈現遠—近—遠之距轉 化,故距離之差分⑴在障礙物之境界會呈現正負之峰值(㈣、 春 之點)。 —此處’距離之差分値圖巾,可利用預定之閾値DR、—DR來檢測特 定形狀物之境界。又,相對於和雷射雷達83相對之特定形狀物表面之 距離交化,而決定最大値之閾值dd、_dd並判定特定形狀物之縱深。· =如’指定之特定形狀物係柱狀物體,必須檢測之柱狀物當中之最大. 寬度為rr X 2時,可設定成dd-tr。 又,附與至特定雜物為止之距離之代表値之㈣號碼Η係採用 附與特定形狀物境界之距離資料之資料號碼,例如,第14圖Α時,號 碼m係利用(n+2)而為H=int(ni+(n+2))/2)。此處,int(X)係附與不超^ 16 1242701 過x之最大整數之函數。特定形狀物之檢測流程會儲存附與該距離之 ^表値之號碼H、該號碼之距離資料D(H)、以及角度資料θ(Η)。又, 若需要考慮之特定形狀物為複數時,則儲存該複數資料。 又’事先針對特定形狀物之距離計測値之連續點個數上限決定閾 値DN ’檢測對象物之距離計測値被視為特定形狀物之距離計測點之點 個數c為閾値DN以下時(C<DN),將該檢測對象物判定成特定形狀物。 ⑽之値亦可以為固定之値。又,例如,可以丨個距離資料推定之檢測 物大小假設為D(i) X Sin(^e),則推定特定形狀之大小為DQ) X Μη(ΔΘ) X C。亦可預先假設特定形狀之大小,並針對各距離改變⑽ 之値。亦即,若特定形狀物之最大寬度為Omax,則可以使D(m)之DN 成為例如0max/(D(m) X sin(Ae)以上之最小整數。 針對利用測定資料辨識特定形狀物之處理流程進行說明。第15圖 係特定形狀辨識處理流程。係利用第13圖所示之測定結果進行說明。 針對各處理常式實施資料號碼i之丨之遞增(S4〇2),調音 資料之差娜、叫⑹⑽―υ之大小(S4G5)。㈣圖 例中’ i=m時,因為△ &、而進入步驟S407,而成為〇1、 m二i。其次,i=m+l 時,因為 | △ (m+2、m+1)丨 $DR、且 D(m+1) D(m)<dd, 故處理會經由步驟S408、S409、S410而成為〇2。 又,i=m+2 時,因為 | Δαβ、m+〇 | $DR、且 D(m+2)-D(m+l)<dd, 故經由相同步驟而成為〇3。 此外,i=m+3時,因為△ (m+3、m+2)>DR,故處理會經由步驟S412、 S413、S414。又,int(x)係用以回到不超過x之最大整數之函數。 如此,可判斷D(m)、D(m+1)、D(m+2M i個特定形狀物反射所得 到之距離資料,至複數特定形狀物之第j個特定雜物為止之距離, 係以H( j)=int((m+m+2)/2Hin+l)個距離資料來表示(S414)。又,步驟 S411、S415中會以C=0來實施c之重設。 夕、 針對距離計測裝置81採用可測距之超音波感測器時進行說明。超 音波感測較為便宜,可以在自發移動機H人本體1Q之周圍進行複^ 設置。前述影像辨識處理機構72判斷某方向可能有人存在時,距離資 17 1242701 訊解析機構82針對摘方向具有檢现域之超音波❹傻之檢測 距離),判斷該檢測結果是否檢測到踏壁。判斷不是牆壁時,將該 ΓΐΓΐ為人。例如’利用超音波感測器計測到之至物體為止:距離 口至儲存於_上之物體(牆壁)為止之距離不_致時,距離資 ,構82將檢測到之物體辨識成『疑似人』。因為距離資訊解析機㈣ J可能將蘭上沒狀物體纖成人,故可實現解之人檢測。= 曰波感測器之檢測結果整合至影像辨識處理機構72之判斷结 :現:字:貼於牆壁上之人相片等誤認成人之錯誤辨識。至儲。存於地』 上之物體(牆壁)為止之距離計算如後面所述。 (行進控制機構) 針對行進控制進行說明。行進控制機構4從環境資訊取得 接收到被辨識成人之碰之方向及距料,被辨識成人之物體位 於自發移動機器人本體10之前進方向且位於預定之距離内時,合 行進機構5執行停止動作’可確保人的安全。又,行進控制機才^ 4在 被辨識成人之物體未位於自發鶴機!!人本體1G之前進方向時,會以 若有其他障礙賴迴避、若無其他障礙物則繼續行進之方式控制^進 機構5。 ^ 針對人檢測停止區域進行說明。第16圖係依據超音波感測界84 之人檢測停止區域43。又,第17圖a係檢測到有人時之停止動作,第 17圖B係檢測到有人以外之物體時之迴避動作。如第16圖所示,將從 · 自發義機器人1之距離m、相對於前進方向1〇a之方向之各±0内之 區域視為人檢測停止區域43,判斷在該區域43檢測到之物為人M時, 如第Π圖A所示’自發移動機器人i會停止。因為採用超音波感測器 84,故設定此人檢測停止區域43十分便宜。判斷不是人時,如帛17 - 圖B所示,自發移動機器人1偏離特定行進路徑44,沿著迴避障礙物 〇之行進路徑45繼續朝目的地τ移動。 又,行進控纖構4控制行進機構5使自發移動機器人本體i〇行 進之其他方法,亦可以依據雷射雷達之距離計測資訊,以例如 TangentBUg(The International j〇urnal 〇f R〇b〇tics 此卿池, 18 1242701 ν〇1· 17’ Να 9’ SePtember1998, pp. 934-953)等之方法,迴避障礙物 並繼續朝目的地移動。 針對迴職測到之物體之其他方法進行說明。第i8圖A係檢測到 有人以外之物體時之迴避動作,第18圖β係檢測到有人之時之迴避動· 作。行進控制機構在被辨識成人之物體位於自發移動機器人本體之前 進方向時’以㈣被觸成人之物H隔著敎之距離進行迴縣行進-之方式控制行進機構。此時,亦可變更檢測狀物體辨_人時、及 判斷不是人時之迴避該檢測到之物體之方法。例如,距離計測參置81 採用雷射雷達83,且設定成障礙物〇不會進入設定之檢測區域46範圍 内之路徑時,切換預先設定之2種檢測半徑R1、R2。 判斷檢測到之物體不是人時,如第18圖靖示,使用較小之檢測_ 半徑R1 ’判斷成人時,如第18圖請示,使用較大之檢測半徑R2。 即使有人而必須迴避人並繼續向目的地行進時,可在確保人之安全之 情形執行行進動作。亦即’因為對於檢測到之物體不是人時無需以保 持距離之方式進行迴避’而可驗迴避距離,故可以良好 發移動機器人之通行。 ' 針對檢測到有人時之對應方法進行說明。行進控制機構4在被辨 識成人之浦位於預定之距_時,亦可⑽使其成鱗應該距離、 或距離及角度之移動速度之方式控制行進機構5。環境資訊取得機構6 傳送被辨識成人之對象之方向及距離時,行進控制機構4可依據該距4 離變更移_度。無障礙物之通常行進狀態所使用之移動速度設定成 速度V時’行進控制機構4可以棚迴避碰撞演算法以下 碰撞時之速度Vl。
Vl=f(h) X v - 此處’似時,f(h)=1 ’ h<d時’㈣⑹u。判定値4係預先設定之 距離、’變數h係至被辨識成人之檢測物體為止之最短距離。函數 亦可以為定數。 ^ ’亦可藉由進一步考量被辨識成人之檢測物體與自發移動機器 人之刖進方向所形成之角度之絕對値δ的函數g(h、δ)來取代函數σ 19 1242701 f (h)。此時,迴避碰撞時之速度V2可以次式求取 v2=g(h、δ) X v 此處,_ 時,g(h、5)=1,h<d 時,G 齡、δ)< δ$90時,可以採用下式, g(h、δ>〇·5 X (1 — 〇·η (90—δ)/90)。 如此,採用對應被辨識成人之物體之距離及角度之移 以不會令人感到不安之動作實現良好效率之自發移動機器人之ς動。 又’檢測狀物體不是人時,無料低速度,故可 發移動機器人之通行。 ㈣ 針對檢_有人秋其麟射法進行。第 ,意到自發移動機器人之人的迴避動作,第19圖㈣ ^十^ 裝置之人之停止動作。行進控制機構4以下述方式行機=二 即,,·判斷被檢測到之人注意到自發移動機 ^:進^齡亦 =到自發移動機器人時,則和被檢測到之人保 ===成 上。當注意到自發移動機器人丨之資訊從:〜 疋之距離以 行進控制機構4時,如第19圖A所示,行進===6傳送至 構5持續執行避動作並繼續朝目的地τ行進:夫日控制行進機 機器人時,則如第19圖β所示,為」忍、到自發移動 而執行停止控制。利用此種控制,在人未人主^持f疋之距_以上 :動機器人接近而威脅到人的情形測J之為自發 動機器人,係以後述之方法進行判斷。]^之人疋否注意到自發移 為人通過被檢測到之人之附近時, 仃動。自發移動機 機器人本㈣上狀_部份^著。•,自發移動 取得機構傳送之被辨識成人 —冑’依據環境資訊 監視晝面47朝向該方向。在該監^書之面方^角《轉其旋轉部份,使 圖案等之喚起注意顯示,可使周圍的^、曾=不例如類似人之臉部之 _人之情形下行進。又’_時對‘;==注 20 1242701 通過被檢測狀人之附近時’行進控制機構4若董丨人採取喚起注意行 動,可提高人對自發移動機器人之親和性。 “ 進-步針對檢測到有人時之其他對應方法進行說明。針對被檢測 ’將攝取機構攝取之影像儲存於記憶機構、或姻自發移動機 =、載置之通訊機構將影像傳送至遠程站,可使自發鶴機器人具有 監視機能,而可應用於安全或防範上。 針對雷射雷達採用距離計測裝置時之座標間關係進行說明。第21 第21圖B係自發移動機器人}之座標配置。固定於自發移動機 =1,座標之基準座標__YR係垂直座職,而原齡於雷射雷 之掃财心之座標系XS_YS亦為垂直座標系。xr 一料面及π% 互於同平面内,XR軸及XS軸位於同一方向,YR軸及YS軸則 相偏離了距離dS。位於雷射雷達83之掃描中心之距離D3、方 /5之位置之XS-YS平面内之物體〇3之位置座標,在座標系xs_ys為 XS-D3 X sin( /3)) YS=-D3 X咖(/3),在鋪纟XR—YR則為 XR=XS + dS YR=YS。 行J對?,9化影像鍊綠自發鶴機器人之鲜座㈣之關係進 夺自發鶴齡人1之基準座標紋標準化影像座標 ;=:巨離資訊取得機構取得之3次元空間中之賴視為標準 摄=广=ml進行觀測時’可以自發移動機器人1之基準座標系、 彡像座標系、以及標準化影像賴系之觀測位置 ΐ移動機器人1之基準座標系之蘭之座標為 式⑻從㈣座標糸之點ml之座標為(u,ν),則可以利用 式點Ml之座標計算點mi之座標。 為定ΓΓΓ轉換,可將雷射雷達計·果投餅影像上。上式中,s 為疋數’ f輕點距離,ku、kv為以標準化 及V轴之夾角,Γ11等為自發移動機器幻之基準座標系/攝影 1242701 二座標系間之旋轉矩陣’ u、t2、t3為自發移動機器人丨之基準座標 系及攝影機座I㈣之旋轉㈣(lOtating mat由)。這些轉 ^ 以攝影機鮮來絲。此式⑻之導㈣十絲本m「電腦 =技術評論及將來展望」(新技術傳達)之第6章電腦視覺之 即有導出實例。 (依據雷射雷達計測結果之影像處理)
每a針對參照距離絲取得機構8之計測結果在影像資訊取得機構7 =^之_並辨識環境之實例進行說明。此實例中,距離資訊取得 Ϊίΐ之歸計職置81做时健達83。雷達83實施 D測,距離資訊解析機構82從該計測資料檢測到對應人之大小之 庙物體時,將該物體視為『疑似人』。影像資訊取得機構7則在對 應该疑似人』位置之影像中實施人辨識。 第23 ®係參雷射雷達計繼果實麵觸處理之影像,第^圖 照雷射雷達剌結果實施『疑似人』檢測之處理流程。利用雷射 =^則物體距離(_),距離f訊解析機構82則利用距離計測資料 2索疑似人』(S502)。不存在『疑似人』時(S5〇3之否),將不存在 ,人之結果輸出至環境辨識機構9(簡),存在『疑似人』時⑽3之 =該位置從雷射雷達座標系轉換成自發移動機 器人之基準座標系
彻Θ述式⑻將『疑似人』之位置從自發㈣機11人之基 付ΐ ^ ί換成鮮化影標MS5G6),求取鮮化座標上之 對應檢所示’投影於影像21上之『疑似人』位置22之週邊, q / 之大小设定著預定之人檢測區域9〇(S5〇7)。環麵 ί 人檢測區域9〇内實施人檢測處理(湖8),檢測到『疑似人』 之於制^射雷達檢測到之『疑似人』係人(S5G9之是),將雷射雷達 4(S^l〇r 正確地檢測到有人,並將該信號輸出至行進控制機構 i射全部『疑似人』實施以上之處靡⑴。如此,可依據 二二*相結果而限制用以執行影像處理之人檢測處理之區域, U回处理之效率並提高人檢測之信賴性。 22 1242701 (依據影像處理結果之雷射雷達計測) 之處例姊上述不同之實例,針對參照影像#訊取得機構7 結果之‘㈣,俩明。第25圖α及第25圖β係依據影像處理 ^像處^i之=測,第25圖c係計測結果之影像。第26圖係參照 ㈣達制之人制之處赠程。此實例中, 、〜、于冓7之攝影裝置71係採用全方位攝影機74,距離資謂 攝之1 帅職置81則剌訪雷達83。如_示,全方位 之=軸方3錢座㈣XG-YG—ZG、及雷射雷達之座標系XL_YL_ZL 致。赌攝影機座㈣之原點為在雷射雷達座標系之 ZL轴上朝上方位移之位置之方式來設置全方位攝影機74。 理機方位攝影機74取得之全梅彡像19,以影像辨識處 之否)^似人』之檢測⑽D。不存在『疑似人』時_2 似人拉,如子在有人之結果輸出至環境辨識機構9(S603),存在『疑 到之『疑似人』之頭部位置方向、 從3ί^ΪΧ(?由之爽角權〇4) °其次’利用雷射雷達_則 資轉i機軸至肢0之方向之肢週邊(s_,利用距離 ‘fi!i 碰辨識機構9檢索對應人之大小之寬度之物體 (606),右檢測到『疑似人』⑽7之是),則將檢測到有人之 ^至^控制機構4⑽9)。針對實施影像之處理而得到之全^疑似 人』貝軛以上之處理(S609)〇 (用以判斷人是否注意到自發移動機器人之判斷處理) A俜意到自發移動機11人之觸方法進行說明。第27圖 A係人注意到同裝置時之影像,第27圖B係未注意到時之弟㈡ 圖係至人為止之距離、及臉部膚色面積之關賴。影像辨聲 2依據距離資訊取得機構§之資訊實施人日处 機構72判斷該人是㈣、咖移%像辨識處理 ,攝取之影像檢測膚色區域之二 到之膚色區域之雜實施處歡職_處理部,檢酬之膚色 23 1242701 區域滿足預定之形狀特徵條件時, 辨識成『疑似人』。 影像辨識處理機構72將該膚色區域 次二之正面愈朝向自發移動機器人時,判定注意程度較高, 相反的,愈朝向側面時,則判定立 " 動裝置之程度,係以頭部區域之膚二::。又,臉綱 机二一人 域面積之大小來判定。如第27 :頭:之大Γ‘们,4是朝向正面時’膚色面積會增加。又,假設人 之頭部之大小沒有個人差显而為一中 朝向正面之標準臉部之膚色小。因此’如第28圖所示’ 距離Di之函數來表示。此從自發ϋ „器人至人為止之 赞進“純q. / 鶴機②人至人為止之麟Di、及臉 礼車膚色面積Si之關係,可以預如實驗求取。 二=二1_人檢測處理流程。此實例中,係針對距離資訊 職置81制魏輯83、紛_取得機構7 之攝衫衣置叫輯賴7叫進行綱。此處顺程之步驟_ =709係和雨述第24圖之利用雷射雷達計測結果之影像處理流程之步 驟S501〜S509相同’故省略其說明。步驟中,若檢測到『疑似 人』(S5G9之是),則實關斷該檢卿之人是否注_自發移動機器 j處理(S710),其後,在人之檢測輸出判定人是否注意到自發移動 故„。人並將代表§亥判定結果之屬性、及雷射雷達檢測到之『疑似人』 係人之判定結果輸出至環境辨識機構9(S711)。針對全部『疑似人與 施以上之處理(S712)。 』貝 針對上述之步驟S710之檢測到之人是否注意到自發移動機哭人之 判定處理進行詳細說明。第_係人是否注意到自發移動機器人之判 斷處理/”ι_ί王。影像辨識處理機構72利用例如像素數計測檢測到有人之 膚色區域24之面積smi(S801)。其次,依據利用雷射雷達所得之人之 計測距離di、以及從自發移動機器人至人為止之距離及朝向正面之人 之臉部之膚色面積之關係(第28圖),求取標準膚色面積si(S8〇2)。其 次,求取膚色區域内之面積smi及標準膚色面積si之比smi/si,並和 預定之閾値TH進行比較(S803)。比較結果若為smi/si>TH(S8〇3之 24 1242701 疋),則判定人注意到自發移動機器人(S804),若為smi/si〈TH(S8〇3 之否),則判定人未注意到自發移動機器人(S8〇5)。 又,本發明並未限制必須為上述構成,可以為各種變形。如第31 圖A、第31圖B、第31圖C所示,可以將攝影裝置及距離計測裝置進 行組合。第31圖A之自發移動機器人!具有i台雷射雷達83、及旋轉 機構70a上之2台攝影機70,第31圖B之自發移動機器人;[具有2台 雷射雷達83、及旋轉機構7〇a上之2台攝影機7〇,第31圖c之自發 移動機器人1則具有1台雷射雷達83、丨組超音波感測器84、以及& 轉機構70a上之2台攝影機70。 又本專利申凊依據2003年3月14日之專利申請主張優先權。 該專利申請整體内容皆可參照並組入本專利申 五、【圖式簡單說明】 圖1係本發明-實施形態之自發鶴機器人之方塊構成圖。 圖2係同上裝置之外觀斜視圖。 圖3係同上裝置之影像辨識處理機構之方塊構成圖。 圖4係同上裝置之影像觸處理機構之其他實例之方塊構成圖。 之攝影裝置所攝取ΓίΓ圖弟5圖6係側面圖,第5圖c係同上裝置 圖6係同上裝置之影像辨識處理機構之人辨識處理流程圖。 理t膚色區域檢測結果之影像圖,第7圖C係包含同處理ϋΐ 第7 _係同處理之人辨識結果之邊緣影像= θ :、同虞置所採用之標準化色空間之概念圖。 =係R絲置之人辨識處理流輯包含之膚色區域檢測處理之流程 圖i〇A係同上裝置之人_處理 測處理之投票範圚圄,|匕扪用杈不之碩部形狀檢 念圖。__ ’㈣圖B係用以說明顧投票之頭部檢測之概 25 1242701 版人物職_包切㈣㈣部形狀檢測 圖圖=======之軸獅辕平面圖, :==:==:形狀_計_ 達之特定形狀物之距離計測結果圖,_ 圖15係同上裝置之特定形狀辨識處理之流程圖。 圖16係用以說明同上褒置之人檢測停止區域之平面圖。 作之乎•圖_檢測 獅之平面圖,圖 圖19A係同上裝置針對注意到 係針對注意到囉置之人之停止動作之平面圖,圖⑽ « 20A^0B^〇 2Β係同平Γ圖㈣冋上裝置之距離計測裝置之座標轉換之斜視圖,圖 自發亀人娜觸、、及縣__ tr上m财達制絲實施影像處理之影像圖。 圖係〜、同上裝置之雷射雷達計測結果實施影像處理之 圖25A係參照同上裝置之影像處理結果實施雷射雷達計測之' 面圖,圖25B係同側面圖,目汉係計測結果之影像圖。、平 ^ 26係參照同上襄置之影像處理結果實施雷射雷達計測處理之流程 圖27A係同上裝置判斷人注意到同裝置時之影像圖,圖咖係判斷人 26 1242701 未注意到同裝置時之影像圖。 圖28係同上裝置所使用之至人之距離、及臉部之膚色面積之關係圖。 圖29係同上裝置之人檢測處理之流程圖。 圖30係同上裝置之人是否注意到同裝置之判斷處理之流程圖。 圖31A、圖31B、圖31C係用以說明同上裝置之攝影裝置及距離計測裝 置之組合之斜視圖。 【主要元件符號說明】 1 自發移動機器人 2 記憶機構 3 輸入指示機構 4 行進控制機構 5 行進機構 6 環境資訊取得機構 7 影像資訊取得機構 8 距離資訊取得機構 9 環境辨識機構 10 自發移動機器人本體 10a 前進方向 11 影像 20 區域 21 影像 22 『疑似人』位置 23 影像 24 膚色區域 25 膚色區域 26 膚色區域 27 邊緣影像 27 邊緣影像 星記號 投票框 中央點 · 投票盒 _ 邊緣影像 邊緣像素集合 邊緣像素 亮度梯度方向 路徑產生麟 ® 自己位置辨識機構 人檢測停止區域 行進路徑 行進路徑 檢測區域 監視晝面 電池 車輪 φ A/D轉換器 記憶體 程式記憶體 CPU 一 通訊控制部 . 鍵盤控制部 鍵盤 顯示控制部 顯不部 28 攝影機 旋轉機構 攝影裝置 影像辨識處理機構 距離計測裝置 距離資訊解析機構 雷射雷達 超音波感測器 人檢測區域 目的地 障礙物 人 29

Claims (1)

1242701 十、申請專利範圍·· I具有了種_多動機器人,係可-邊迴避障礙物-邊行進,其特徵 種參ΐ憶機構,用以儲存行進區域之地圖資訊、及以行進為目的之各 It 構’用以將目的地及行進指令輸入至該記憶機構; s位產生機構,用以產生至目的地為止之行進路徑; 上之轉機構,㈣取得包娜雜之物體仙讀進路徑 行進機構,用以實施行進; 自己位置辨識機構,用以依據該 該地圖資訊來辨識自己位置;以及 职亍_取付之貝錢 行進控制機構,用以控制該行進機構,俾 機構辨識自己位置一邊迴避障礙物以到達目的地;曰且,只 " 該環境資訊取得機構具有: 攝影裝置,肖輯取行祕徑上之環境影像· 影像辨識處理機構,用以實施該攝取之影像資 析出具有和人體部位相關之屬性之區域; 、处 w 距離計測袭置,用以檢測存在於行進路徑 計測該物體之距離及方向,· 工衣兄内之物體,並 距離資訊解析顧,_實補計酬之 處理來^取物體形狀,並從該形狀辨識出物體係%似r it %境辨谶機構,用以比較具有以該影像辨識 ^ 性之區域讀置、及_距师鱗__識成出= 之位置,且在兩者一致時將該物體辨識成人。』_ 2、如申請專利範圍第!項之自發移動機器人,盆中. —該影像_處職_針_雜:#轉析_· 貫施影像雜之演算處理,該魏_機刺 之部份實施辨識處理。 T 了對應该物體方向 30 1242701 3、 如申請專利範圍第丨項之自發移動機器人, 份實施辨識處理。 、Η應於該析出之區域方向之部 4、 如申請專利範圍第}項之自發移動機器人, 該距離計測裝置係採用以預 /、τ · 面内並計測至障礙物為止之距離之雷射雷達角度掃描行進路面之平行 5、 如申請專利範圍第丨項之自發移動機田器人, 該距離資訊解析機構係利用距離算 度位於預定之範圍内即將該物體辨識成『疑^處理所求取之物體見 6、 如申請專利範圍第i項之自發移動機器人,」 上之計測到之至物體為止之距離和儲存於地圖 上?物體為止之距離為不一致時 : 7、 如申請專利細第丨項之自發移動機器人,=辨核疑似人』。 和像座㈣換成自發移軸^人之基準座。 '、 8、 如申請專利範圍第1項之自發移動機器人,不其中: 该影像辨識處理機構至少包含· 色區域之特定㈣檢赛㈣檢測出特定 形狀實施演算處理之形狀特徵用檢測到之特定色區域之 之形狀特徵條件時,將神㈣到之特定色區域滿足預定 :怿件時’將補定色區域辨識成『疑似人』。 °申δ月專利關第1項之自發移動機器人,盆中. 該環境辨識機構係求取影像巾 :娜動機器人至人之距離而預定之該;離之;== 之比,並將該比與贼之閾值 域之面積 注意到自發移動機器人。 咏再依此W檢測到之人是否 移職③人之讀方向且位於預定之距離内時即停止; 31 1242701 自發移動機器人之前進方向、、Λ 避;若無障礙物則繼續行^ _成人之物體但树礙物,則迴 Dir丨:圍第1項之自發移動機器人,其中: 锻機構:當被辨一 辨識成人之無並行進。方一,即簡著預定之距離迴避該被 12、t申請專利範圍第1項之自發移動機器人,置中. 速度。 嘱料輯、或轉及缝來控制移動 U如申明專利範圍第9項之自發移動機器人 該行進控制機構細下述方式控制行 ^ : 注意到自發移動機器人時,即繼續接近;若冓立§判斷檢測到之人 之人保持大於於預定之距離以上之距離。右注意到時,則和檢測到 14、如申請專利範圍第1項之自發移動機器人,甘 该行進控制機構在通過檢測到之人之附、/、中: 喚起注意行動。 、時,採取引起人注意之 5如申明專利範圍第1項之自發移動機器人, 』該影像資訊取得機構可對檢測到之人實於播,中: 該記憶機構、或將影像傳送至遠程站。、也攝影並將該影像儲存於 32
TW093106652A 2003-03-14 2004-03-12 Autonomous moving robot TWI242701B (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003070728A JP3879848B2 (ja) 2003-03-14 2003-03-14 自律移動装置

Publications (2)

Publication Number Publication Date
TW200508826A TW200508826A (en) 2005-03-01
TWI242701B true TWI242701B (en) 2005-11-01

Family

ID=32984667

Family Applications (1)

Application Number Title Priority Date Filing Date
TW093106652A TWI242701B (en) 2003-03-14 2004-03-12 Autonomous moving robot

Country Status (6)

Country Link
US (1) US7684894B2 (zh)
JP (1) JP3879848B2 (zh)
KR (1) KR100773184B1 (zh)
DE (1) DE112004000438T5 (zh)
TW (1) TWI242701B (zh)
WO (1) WO2004081683A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI459170B (zh) * 2012-10-04 2014-11-01 Ind Tech Res Inst 行進控制裝置以及具有該行進控制裝置之自動引導載具

Families Citing this family (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
KR100954621B1 (ko) * 2005-02-23 2010-04-27 파나소닉 전공 주식회사 자동운전차량 및 평면 장애물인식방법
JP4093261B2 (ja) * 2005-03-15 2008-06-04 松下電工株式会社 自律移動装置
JP4882275B2 (ja) * 2005-05-18 2012-02-22 パナソニック電工株式会社 自律移動ロボット及びその移動状況記録システム
US7783382B2 (en) * 2006-02-24 2010-08-24 Qisda Corporation Controlling machine actions based on luminance of environmental light and distance from user
KR100772907B1 (ko) 2006-05-01 2007-11-05 삼성전자주식회사 장애물 감지 기능을 가지는 로봇 및 그 제어 방법
JP4970861B2 (ja) * 2006-07-07 2012-07-11 本田技研工業株式会社 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
JP4314266B2 (ja) * 2006-11-22 2009-08-12 キヤノン株式会社 画像制御装置及びその制御方法
JP4528295B2 (ja) * 2006-12-18 2010-08-18 株式会社日立製作所 案内ロボット装置及び案内システム
JP4871160B2 (ja) 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
JP4953313B2 (ja) * 2007-09-10 2012-06-13 公立大学法人首都大学東京 環境認識システム、自律型移動体および環境認識プログラム
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
JP5085251B2 (ja) * 2007-09-25 2012-11-28 パナソニック株式会社 自律移動装置
US8838268B2 (en) * 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
JP4978494B2 (ja) * 2008-02-07 2012-07-18 トヨタ自動車株式会社 自律移動体、及びその制御方法
KR101415297B1 (ko) 2008-04-16 2014-07-07 삼성전자주식회사 로봇 지도 생성 방법 및 로봇 지도 이용 방법 및 로봇지도를 가지는 로봇
JP4670899B2 (ja) * 2008-05-22 2011-04-13 村田機械株式会社 走行車
KR101556593B1 (ko) * 2008-07-15 2015-10-02 삼성전자주식회사 영상 처리 방법
TWM348676U (en) * 2008-07-22 2009-01-11 Iner Aec Executive Yuan Environmental survey robot
TWI408397B (zh) * 2008-08-15 2013-09-11 Univ Nat Chiao Tung Automatic navigation device with ultrasonic and computer vision detection and its navigation method
WO2010021090A1 (ja) * 2008-08-20 2010-02-25 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
KR101202695B1 (ko) * 2008-10-01 2012-11-19 무라다기카이가부시끼가이샤 자율 이동 장치
TWI396830B (zh) * 2008-11-28 2013-05-21 Univ Nat Taiwan 巡邏裝置及其巡邏路徑規劃方法
KR101006211B1 (ko) * 2008-12-01 2011-01-07 한국기술교육대학교 산학협력단 센서를 구비한 이동체의 센싱 범위 확장 방법
TWI388956B (zh) 2009-05-20 2013-03-11 Univ Nat Taiwan Science Tech 行動機器人與其目標物處理路徑的規劃方法
GB0919158D0 (en) * 2009-11-02 2009-12-16 Onslow Leigh M The Viscountess Multi-function monitor
US9164512B2 (en) 2009-11-27 2015-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous moving body and control method thereof
TWI394933B (zh) * 2010-01-28 2013-05-01 Univ Nat Kaohsiung Applied Sci Image path planning guidance system
JP5560978B2 (ja) * 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
TWI409605B (zh) * 2010-07-14 2013-09-21 Qisda Corp 能自動定位移動的電子裝置及讓其移動件自動歸位的方法
JP5621483B2 (ja) * 2010-10-05 2014-11-12 トヨタ自動車株式会社 ロボット及びその制御方法
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
CN103459099B (zh) 2011-01-28 2015-08-26 英塔茨科技公司 与一个可移动的远程机器人相互交流
KR101049155B1 (ko) * 2011-02-01 2011-07-14 국방과학연구소 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US9259842B2 (en) 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
US8972055B1 (en) * 2011-08-19 2015-03-03 Google Inc. Methods and systems for selecting a velocity profile for controlling a robotic device
JP5442050B2 (ja) * 2012-02-15 2014-03-12 本田技研工業株式会社 車両周辺監視システム
KR101272604B1 (ko) * 2012-04-25 2013-06-07 주식회사 유진로봇 탑승형 로봇 및 이를 포함하는 탑승형 로봇 운용 시스템
WO2013176762A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP5314788B2 (ja) * 2012-06-11 2013-10-16 パナソニック株式会社 自律移動装置
US9321173B2 (en) 2012-06-22 2016-04-26 Microsoft Technology Licensing, Llc Tracking and following people with a mobile robotic device
US9186793B1 (en) * 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
CN104718507B (zh) 2012-11-05 2017-03-29 松下知识产权经营株式会社 自主行走装置的行走信息生成装置、方法以及自主行走装置
JP6123370B2 (ja) * 2013-03-12 2017-05-10 株式会社豊田中央研究所 障害物までの距離を計測して移動する自律式移動装置
US9202353B1 (en) * 2013-03-14 2015-12-01 Toyota Jidosha Kabushiki Kaisha Vibration modality switching system for providing navigation guidance
JP5672327B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム
JP5976198B2 (ja) * 2013-03-26 2016-08-23 株式会社日立国際電気 人数計数装置および人数計数方法
JP2014197294A (ja) * 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
JP2015019689A (ja) * 2013-07-16 2015-02-02 アルプス電気株式会社 障害物検知装置とその検知方法
KR102085180B1 (ko) * 2013-10-08 2020-03-05 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
US20150142251A1 (en) * 2013-11-21 2015-05-21 International Business Machines Corporation Vehicle control based on colors representative of navigation information
US9532031B1 (en) * 2014-04-08 2016-12-27 The United States Of America As Represented By The Secretary Of The Navy Method for extrinsic camera calibration using a laser beam
US10735902B1 (en) * 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
JP6599603B2 (ja) * 2014-04-18 2019-10-30 東芝ライフスタイル株式会社 自律走行体
EP3171241A4 (en) * 2014-07-16 2017-12-13 Ricoh Company, Ltd. System, machine, control method, and program
CN104216411B (zh) * 2014-09-27 2016-11-09 江阴润玛电子材料股份有限公司 一种电子电路中的巡线方法
US9434069B1 (en) 2014-11-10 2016-09-06 Google Inc. Motion heat map
KR101681187B1 (ko) * 2015-01-21 2016-12-01 한국과학기술연구원 로봇 위치 측정 시스템 및 방법
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
JP6528280B2 (ja) * 2015-12-28 2019-06-12 株式会社エクォス・リサーチ 移動体
JP2016064829A (ja) * 2015-12-28 2016-04-28 エイディシーテクノロジー株式会社 車両制御装置
CN107836013B (zh) * 2016-03-09 2019-09-03 广州艾若博机器人科技有限公司 地图构建方法、纠正方法及装置
JP6631694B2 (ja) * 2016-03-17 2020-01-15 日本電気株式会社 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム
CN106092091B (zh) * 2016-08-10 2019-07-02 京东方科技集团股份有限公司 电子机器设备
CN107356929B (zh) * 2016-08-29 2020-07-28 北醒(北京)光子科技有限公司 一种快速扫描探测方法
KR102472631B1 (ko) * 2016-09-20 2022-11-30 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
EP3540716B1 (en) * 2016-11-14 2023-06-07 Sony Group Corporation Information processing device, information processing method, and recording medium
JP6938969B2 (ja) * 2017-03-07 2021-09-22 富士フイルムビジネスイノベーション株式会社 環境測定システムおよびプログラム
JP2018146440A (ja) * 2017-03-07 2018-09-20 株式会社豊田自動織機 環境認識装置
JP6776960B2 (ja) * 2017-03-14 2020-10-28 トヨタ自動車株式会社 自律移動体
WO2018173595A1 (ja) * 2017-03-22 2018-09-27 日本電産株式会社 移動装置
JP6830656B2 (ja) * 2017-03-30 2021-02-17 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
KR20180134230A (ko) * 2017-06-08 2018-12-18 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR102391914B1 (ko) * 2017-06-30 2022-04-27 엘지전자 주식회사 이동 로봇의 동작 방법
CN107463175A (zh) * 2017-08-04 2017-12-12 河南工程学院 自动避障小车、避障方法及系统
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
WO2019133342A1 (en) * 2017-12-29 2019-07-04 PlusAI Corp Method and system for stereo based vehicle pose estimation
JP7060231B2 (ja) * 2018-02-06 2022-04-26 株式会社Soken 移動体制御装置
EP3761136B1 (en) * 2018-02-28 2022-10-26 Honda Motor Co., Ltd. Control device, mobile body, and program
JP6894595B2 (ja) * 2018-03-28 2021-06-30 株式会社エクォス・リサーチ 移動体
JP6788915B2 (ja) * 2018-06-21 2020-11-25 クモノスコーポレーション株式会社 3dレーザスキャナ、3dレーザスキャナシステム、建設作業機械及び建設工事方法
JPWO2020049850A1 (ja) 2018-09-04 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、および移動装置
WO2020060267A1 (en) * 2018-09-20 2020-03-26 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof
JP6559864B1 (ja) * 2018-10-04 2019-08-14 関西電力株式会社 走行制御装置及び走行制御方法、並びに自動走行車
TWI721324B (zh) * 2018-10-10 2021-03-11 鴻海精密工業股份有限公司 電子裝置及立體物體的判斷方法
JP2020071182A (ja) * 2018-11-01 2020-05-07 パナソニックIpマネジメント株式会社 運転支援装置、車両および運転支援方法
WO2020145095A1 (ja) * 2019-01-10 2020-07-16 株式会社小糸製作所 LiDARセンサユニットおよび車両用防犯システム
US11338438B2 (en) 2019-01-25 2022-05-24 Bear Robotics, Inc. Method, system and non-transitory computer-readable recording medium for determining a movement path of a robot
JP2022519788A (ja) * 2019-02-11 2022-03-24 643エーアイ リミテッド 複数の自律型車両を管理するためのシステムおよび方法
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
JP2021056764A (ja) * 2019-09-30 2021-04-08 日本電産株式会社 移動体
JP7408334B2 (ja) * 2019-10-03 2024-01-05 Thk株式会社 画像処理装置及び移動体制御システム
US20230106443A1 (en) * 2020-01-31 2023-04-06 Nissan Motor Co., Ltd. Object Recognition Method and Object Recognition Device
WO2021166637A1 (ja) * 2020-02-17 2021-08-26 ソニーグループ株式会社 運搬ロボット、制御方法、プログラム、および制御装置
JP7404137B2 (ja) 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム
CN111714034B (zh) * 2020-05-18 2022-10-21 科沃斯机器人股份有限公司 一种自移动机器人的控制方法、系统及自移动机器人
WO2021252425A1 (en) * 2020-06-08 2021-12-16 Brain Corporation Systems and methods for wire detection and avoidance of the same by robots
US11767037B2 (en) 2020-09-22 2023-09-26 Argo AI, LLC Enhanced obstacle detection
CN112526984A (zh) * 2020-09-30 2021-03-19 深圳市银星智能科技股份有限公司 一种机器人避障方法、装置及机器人
CN112232272B (zh) * 2020-11-02 2023-09-08 上海有个机器人有限公司 一种激光与视觉图像传感器融合的行人识别方法
KR20220064222A (ko) * 2020-11-11 2022-05-18 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7404282B2 (ja) 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム
CN113110481B (zh) * 2021-04-26 2024-02-06 上海智蕙林医疗科技有限公司 一种应急避让实现方法、系统、机器人和存储介质
CN113433560B (zh) * 2021-06-25 2023-12-26 北京铁道工程机电技术研究所股份有限公司 一种机器人侧边巡检的定位方法、装置、电子设备及介质
CN113610910B (zh) * 2021-07-30 2024-04-09 合肥科大智能机器人技术有限公司 一种移动机器人避障方法
KR20230039421A (ko) * 2021-09-14 2023-03-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
TWI769924B (zh) * 2021-09-15 2022-07-01 東元電機股份有限公司 人體跟隨系統
KR102425271B1 (ko) 2021-12-29 2022-07-27 주식회사 파이엇 장애물회피방법을 구비한 자율주행로봇
KR102654371B1 (ko) * 2022-02-07 2024-04-02 백수빈 지상용 자율주행 무인정찰 장치

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6371604A (ja) * 1986-09-12 1988-04-01 Hideo Mori 領域分割したカラ−画像を使つて道路境界と障害物を検出する方式
JPS63124114A (ja) * 1986-11-14 1988-05-27 Hitachi Ltd 移動体用環境認識装置
JPS63213005A (ja) * 1987-03-02 1988-09-05 Hitachi Ltd 移動体誘導方法
JP2839281B2 (ja) 1989-03-31 1998-12-16 グローリー工業株式会社 移動体の自己定位方法
JPH036710A (ja) * 1989-06-05 1991-01-14 Toshiba Corp 追随移動ロボット制御装置
JPH0412218A (ja) * 1990-05-01 1992-01-16 Toyota Motor Corp 車両用距離検出装置
JP3263699B2 (ja) 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
JP2501010B2 (ja) * 1993-10-25 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動ロボットの誘導装置
JPH07213753A (ja) * 1994-02-02 1995-08-15 Hitachi Ltd パーソナルロボット装置
JPH07325620A (ja) * 1994-06-02 1995-12-12 Hitachi Ltd 知能ロボット装置及び知能ロボットシステム
JPH09326096A (ja) * 1996-06-06 1997-12-16 Nissan Motor Co Ltd 車両用人的障害物検知装置
JPH11104984A (ja) * 1997-10-06 1999-04-20 Fujitsu Ltd 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
DE59809476D1 (de) * 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JPH11198075A (ja) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp 行動支援装置
JP3660492B2 (ja) * 1998-01-27 2005-06-15 株式会社東芝 物体検知装置
JP2000123298A (ja) 1998-10-13 2000-04-28 Japan Aviation Electronics Industry Ltd 障害物位置検出装置およびその検出方法
JP2000326274A (ja) 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP3648604B2 (ja) 2000-10-26 2005-05-18 松下電工株式会社 自律移動装置
JP3823760B2 (ja) 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
US6664918B2 (en) * 2002-01-09 2003-12-16 Mia-Com, Inc. Method and apparatus for identifying complex objects based on range readings from multiple sensors
JP4019736B2 (ja) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
JP3979141B2 (ja) * 2002-03-26 2007-09-19 松下電工株式会社 案内用自律移動ロボットとその制御方法
JP3781370B2 (ja) 2002-11-19 2006-05-31 本田技研工業株式会社 移動装置
JP4082190B2 (ja) * 2002-11-26 2008-04-30 松下電工株式会社 人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI459170B (zh) * 2012-10-04 2014-11-01 Ind Tech Res Inst 行進控制裝置以及具有該行進控制裝置之自動引導載具

Also Published As

Publication number Publication date
JP2004280451A (ja) 2004-10-07
KR100773184B1 (ko) 2007-11-02
DE112004000438T5 (de) 2006-01-26
JP3879848B2 (ja) 2007-02-14
US20060184274A1 (en) 2006-08-17
US7684894B2 (en) 2010-03-23
KR20050108396A (ko) 2005-11-16
TW200508826A (en) 2005-03-01
WO2004081683A1 (ja) 2004-09-23

Similar Documents

Publication Publication Date Title
TWI242701B (en) Autonomous moving robot
US10757373B2 (en) Method and system for providing at least one image captured by a scene camera of a vehicle
KR101591471B1 (ko) 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
US9778748B2 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
JP4007899B2 (ja) 運動検出装置
TWI498580B (zh) 長度量測方法與長度量測裝置
JP5872818B2 (ja) 測位処理装置、測位処理方法、および画像処理装置
JP2019505898A (ja) 外科織物内の血液構成要素の量の評価方法
US6205242B1 (en) Image monitor apparatus and a method
US20190371134A1 (en) Self-checkout system, method thereof and device therefor
WO2012101962A1 (ja) 姿勢状態推定装置および姿勢状態推定方法
CN108921894A (zh) 对象定位方法、装置、设备和计算机可读存储介质
JP6031258B2 (ja) 表示装置
US10235607B2 (en) Control device, control method, and computer program product
JP2001175868A (ja) 人物検出方法及び装置
JP2013125985A (ja) 表示システム
Li et al. A multi-type features method for leg detection in 2-D laser range data
JP3577875B2 (ja) 移動物体抽出装置
US20180082129A1 (en) Information processing apparatus, detection system, and information processing method
US11270668B1 (en) System and method for detecting screen orientation of a device
JP2002366958A (ja) 画像認識方法および画像認識装置
JP2000056916A (ja) ハンドポインティング装置
KR20090116544A (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP4979895B2 (ja) ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees