TW202230234A - 管理系統、評價系統及人才培育方法 - Google Patents
管理系統、評價系統及人才培育方法 Download PDFInfo
- Publication number
- TW202230234A TW202230234A TW111103220A TW111103220A TW202230234A TW 202230234 A TW202230234 A TW 202230234A TW 111103220 A TW111103220 A TW 111103220A TW 111103220 A TW111103220 A TW 111103220A TW 202230234 A TW202230234 A TW 202230234A
- Authority
- TW
- Taiwan
- Prior art keywords
- management
- site
- manager
- space
- operators
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000011156 evaluation Methods 0.000 title claims description 20
- 238000012549 training Methods 0.000 title abstract description 3
- 230000008859 change Effects 0.000 claims abstract description 24
- 238000003860 storage Methods 0.000 claims abstract description 10
- 238000010801 machine learning Methods 0.000 claims abstract description 4
- 230000033001 locomotion Effects 0.000 claims description 43
- 230000009471 action Effects 0.000 claims description 26
- 238000011161 development Methods 0.000 claims description 4
- 238000012364 cultivation method Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 36
- 238000009825 accumulation Methods 0.000 abstract 1
- 230000001788 irregular Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 46
- 238000001514 detection method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 101100264195 Caenorhabditis elegans app-1 gene Proteins 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 241000282465 Canis Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011867 re-evaluation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Educational Administration (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Primary Health Care (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Game Theory and Decision Science (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Alarm Systems (AREA)
Abstract
本發明的課題為提供進行更適合建築、建設現場的危險處等的管理處的特定並使現場管理者可進行更適切的現場管理之系統。
本發明的解決手段為一種管理系統1,特定複數個操作員移動的空間內的應管理的管理處,可對管理前述空間的狀況的管理者通報前述管理處之管理系統。管理系統1包含:操作員特徵部檢測模組及操作員特徵量抽出模組,檢測可特定複數個操作員的各個的動作之特徵點的位置並追蹤該位置的變化;動作解析資料庫,將所追蹤的前述特徵點的位置的變化置換成前述複數個操作員的各個的動作,當作透過機器學習得到的學習資料的動作資訊儲存;操作員不穩定動作判定模組,根據動作解析資料庫的動作資訊,判定前述特徵點的位置的變化是否為前述操作員的不穩定動作,特定前述管理處。再者,AR模組以虛擬標籤顯示在顯示前述空間內的圖內前述特定手段所特定的前述管理處,對前述管理者進行通報。
Description
本發明是關於管理系統、評價系統及人才培育方法,特別是關於特定複數個操作員移動的空間內的應管理的管理處,可對以遠程管理前述空間的狀況的管理者通報前述管理處之管理系統等。
在建築、建設現場中,在現場管理者之總承包人之下有專門工程業者(操作員)的承包人或二次承包人,以進行作業。現場管理者具有程序與安全與品質與成本的權限與責任,專門工程業者具有工種的責任,現場管理者通常具有錢的權限。現在都很少存在。專門工程業者為操作員,也遍及29種建設業。在現場,許多人進出,操作員的知識、技術水平取決於經驗方面大,現實上該水平有差異,有因該水平的差異等而發生受傷等的事故之可能性。
為了不發生這種事故,管理現場為總承包人之現場管理者,本來被賦予權限與責任,還得要具有承包人的專門工程知識,但是為了累積學會的經驗,需要花費長時間。現場管理者為年輕人或女性當下達指令等時,也有操作員氣質,也有年齡或男女的差異等,就經驗豐富且一般被認為知識技術水平高的承包人的中高年的男性操作員而言,可能會發生該指令想不通的情形。此情形,在現場需要立即的對應的狀況下,很難客觀判斷指令的妥當性等應根據什麼為基準等,結果被聲音大的操作員的意見左右而言聽計從也成為常見的場面。很難建立總承包人之現場管理者與承包人之專門工程業者(操作員)的信賴關係。
也有這種實際情況的建築、建設業界應該避免事故等,警告危險的技術雖然還未達到對製造現場的技術的數目的地步,但是一些建議被提出。例如,在專利文獻1中揭示:藉由操作員穿戴的隨身電腦(wearable computer),計測作業環境與操作員的狀況,根據作業環境(危險處等)與操作員的狀況,發出警告的結構。而且,更進一步發展,人工智慧(AI:Artificial Intelligence)學習人的運動(動作)與現場影像,AI根據現場影像等發出警告的技術也被提出(參照專利文獻2)。
另一方面,近年來AR(擴增實境:Augmented Reality)技術的發展也很驚人,也對建築、建設現場活用AR技術也已開始被提出(參照專利文獻3)。
[專利文獻1]:日本國特開2002-287846號公報
[專利文獻2]:日本國特開2019-197373號公報
[專利文獻3]:美國專利第10607163號公報
但是,首先製造現場與建築、建設現場對現場的環境的變化有很大的不同。一般在工廠內等的製造現場中操作員以外的機器等的狀況無大的變化,進出的人基本上也都是固定的人們,相對於封閉的空間且靜態,建築、建設現場為戶外,除此之外如上述,每天都有不同的人進出的狀況,就敞開的空間且動態的意義,有很大的不同。特別是建築現場與建設(土木)現場比較有專門性的廣度,若與專門性比較被限定且出現AR容易進行的傾向之建設(土木)現場比較,被定位為在人的進出此一意義上處於最敞開的空間且動態的狀況。因此,處於並非只要將在製造現場的技術原封不動地轉用到建築、建設現場,尤其是建築現場即可的狀況。
再者,在如上述的建築、建設現場的實際情況下,在人才的稀少化進行,高齡化進行的專門工程業者中也發生技術繼承的問題。不僅如此,在現場管理者側中也發生技術繼承的問題。有這種背景,人才培育的必要性升高。另一方面,就現場管理者而言,也有如下的現場的實際的課題:操作員不聽指令、經驗少且事先預測困難、知識少且無法判斷操作員的言行、因語言有專門的行話等而難以溝通等。據說思考的品質或行動的品質會依照人際關係的品質而連動,其結果,現場管理者為了能進行令人滿意的管理,通常要花費10年以上的歲月,也發生每天感到孤獨感而很難維持動機。
有這種課題,在習知的技術中,特別是針對製造現場的課題雖然進行在技術面上的建議,但對於建築、建設現場數量仍然有限,雖然也有適用AR技術的建議,但是作為在敞開的空間對應動態的現場的技術,仍處於不充分的狀況。特別是在現場管理者與操作員之間等進行溝通的工具的觀點上是不充分。
因此,本發明是鑒於上述情況所進行的創作,作為第一目的係提供進行更適合建築、建設現場的危險處等的管理處的特定並使現場管理者可進行更適切的現場管理之系統。而且,作為第二目的係提供即使現場管理者為年輕人或女性,也能以像經驗豐富的觀點下達現場的操作員能理解的指令之系統。再者,作為第三目的係提供適切地進行人事等的人才的評價,以能維持操作員或現場管理者為了完成各自的任務的幹勁之評價系統。再者,作為第四目的係活用評價系統,進行操作員或現場管理者,進而遠程管理者的人才培育。
本發明的第一觀點為一種管理系統,特定複數個操作員移動的空間內的應管理的管理處,可對管理前述空間的狀況的管理者通報前述管理處,包含:追蹤手段,檢測可特定前述複數個操作員的各個的動作之特徵點的位置並追蹤該位置的變化;儲存手段,將前述追蹤手段所追蹤的前述特徵點的位置的變化置換成前述複數個操作員的各個的動作,當作透過機器學習(machine learning)得到的學習資料(learning data)的動作資訊儲存;特定手段,根據前述儲存手段所儲存的動作資訊,判定前述追蹤手段所追蹤的前述特徵點的位置的變化是否為前述操作員的不穩定動作,特定前述管理處;以及通報手段,在顯示前述空間內的圖(map)內顯示前述特定手段所特定的前述管理處,對前述管理者進行通報。此處,前述操作員的不穩定動作是指例如為了避開危險所採取的動作。
在本發明的第二觀點中,在第一觀點中,在前述特徵點賦予關聯有前述各操作員的屬人的資訊。
在本發明的第三觀點中,在第一或第二觀點中,前述管理者也包含在前述複數個操作員所在的前述空間內的現場管理者及離開前述空間以遠程管理的管理者的任一個,前述通報手段也對前述現場管理者及前述以遠程管理的管理者的任一個顯示並通報前述管理處。
在本發明的第四觀點中,在第三觀點中,在前述應管理的管理處,經前述現場管理者及前述以遠程管理的管理者的同意而標記有管理內容,或者經前述現場管理者及前述以遠程管理的管理者的同意而刪除前述附加的標籤(tag),包含:共有手段,可在前述現場管理者及前述以遠程管理的管理者之間共有前述被標記的標籤的數目、前述被刪除的標籤的數目或顯示藉由前述標籤的增減而表現的管理指標之管理指標資訊。
本發明的第五觀點為一種評價系統,包含在第四觀點記載之管理系統,更包含:評價手段,對前述複數個操作員與前述現場管理者,進行比較在成為基準的程序所要求的基準行動與實際的行動之評價。
本發明的第六觀點為一種人才培育方法,包含在第五觀點記載之評價系統,進行藉由彌合在前述複數個操作員與前述現場管理者的各個所造成的經驗的差異之人才培育。
依照與本案有關發明的發明,可特定更適合建築、建設現場的危險處等的管理處,使現場管理者可進行更適切的現場管理。而且,成為即使現場管理者為年輕人或女性,也能以像經驗豐富的觀點下達現場的操作員能理解的指令之系統。再者,藉由適切的現場管理,可展開可適切地進行操作員或現場管理者的評價。再者,活用適切的評價,可進行操作員或現場管理者、遠程管理者的人才培育。
圖1是顯示與本發明的實施的形態有關的管理系統的全體之方塊圖。圖2是顯示圖1的現場管理終端機及遠程管理終端機與AI應用程式及AR應用程式的關係之圖。圖3是顯示圖1的現場管理終端機的內部構成之方塊圖。圖4是顯示作為圖3的現場管理終端機(硬體功能構成)的具體例的一例的平板電腦之圖。圖5是顯示圖1的遠程管理終端機的內部構成之方塊圖。圖6是顯示圖1的現場管理終端機與重要管理點手冊伺服器與遠程管理終端機的關係之方塊圖,且就圖2的AI應用程式之中知識型AI應用程式由重要管理點手冊的觀點進行說明之圖。圖7是顯示圖1的現場管理終端機與語言列表伺服器的關係之方塊圖,且就圖2的AI應用程式之中知識型AI應用程式由語言字典的觀點進行說明之圖。
參照圖1,管理系統1包含經由資訊通信網路(information communication network)3連接的現場管理終端機5與遠程管理終端機7與現場管理輔助系統8與任務伺服器(job server)9與重要管理點手冊伺服器11與語言列表伺服器13與AI資料驅動型伺服器14與圖面資訊伺服器15。在現場管理終端機5與遠程管理終端機7搭載有後述的應用程式,任務伺服器9、重要管理點手冊伺服器11、語言列表伺服器13、圖面資訊伺服器15儲存資料並扮演作為資料伺服器(data server)的角色。現場管理輔助系統8例如為可通信的犬型機器人等的移動型裝置,為輔助現場管理的系統。AI資料驅動型伺服器14包含語意分割部16與程序檢測部17-1與危險檢測部18。
現場管理終端機5為與操作員一起在現場的現場管理者所保持的終端機,如圖3所示,由輸入部與輸出部構成。在輸入部包含有depth攝影機(camera)5a與LiDAR(Light Detection And Ranging:光達)5b與麥克風(microphone)5c與觸控面板(touch panel)式畫面部5d。depth攝影機5a與LiDAR(Light Detection And Ranging:光達)5b只要有任一方即可,但有兩方也可以。在輸出部包含有揚聲器(speaker)5e與顯示監視器(display monitor)5f。LiDAR5b為藉由一邊掃描雷射光束,一邊照射對象物並觀測其散射或反射光,計測到對象物的距離或特定對象物的性質之光感測器(photosensor)技術。現場管理終端機5具體上可舉出例如平板電腦終端機(參照圖4)。此外,在圖4中如圖4(A)所示,顯示有depth攝影機5a與LiDAR5b的掃描器(scanner)。在圖4(B)中有觸控面板式畫面部5d,也顯示有麥克風5c與畫面側攝影機。此外,因圖3的揚聲器5e為內建,故在圖4中省略圖示。
遠程管理終端機7為經驗知識比現場管理者豐富的遠程管理者以離開現場的遠程使用的終端機,如圖5所示,由輸入部與輸出部構成。在輸入部包含有攝影機7a與觸控面板式畫面部7b與鍵盤(keyboard)+滑鼠(mouse)7c與麥克風7d。觸控面板式畫面部7b與鍵盤+滑鼠7c只要有任一方即可,但有兩方也可以。在輸出部包含有揚聲器7e與顯示監視器7f。遠程管理終端機7具體上例如可舉出筆記型的個人電腦或桌上型的個人電腦。
在任務伺服器9儲存有每一日期的工作列表(job list)的資料。
參照圖2,就圖1所示的全體圖更進一步分成物理的空間之physical space(實體空間)與虛擬空間(virtual space)之cyber space(網路空間)進行說明,特別是就cyber space(網路空間)上的應用程式進行說明。在physical space(實體空間)中存在包含平板電腦終端機、LiDAR、depth攝影機的現場管理終端機5,與包含個人電腦的遠程管理終端機7。此外,在圖2中雖然將LiDAR、depth攝影機當作與平板電腦終端機不同體,但如圖3所示為一體也可以。而且,現場管理終端機5與遠程管理終端機7之間進行AR通信。另一方面,在cyber space(網路空間)中,除了工作DB(工作資料庫:job database)9、圖面資訊DB(資料庫:database)15、重要管理點手冊DB11、語言字典DB13之資料伺服器之外,還有語意分割部16。此處,語意分割是使標籤(tag; label)或種類(category)賦予關聯於影像內的全像素之深度學習(deep learning)的演算法(algorithm),惟是藉由參照建築、建設現場的圖面資訊,進行影像內對象物的正確的標記。在圖2中,以朝下的三角形表示標籤。在應用程式包含有資料驅動型AI應用程式app1、AR應用程式app2、知識型AI應用程式app3。資料驅動型AI應用程式app1為進行操作員的動作解析的應用程式,具體而言為進行著眼於特徵點或特徵量的相對的速度變化與位置變化的動作解析的應用程式。資料驅動型AI應用程式app1包含:接受動作解析學習資料(儲存手段的一例)並檢測操作員的特徵點(部)之模組(module)部分(構成追蹤手段的手段的一例);抽出操作員的特徵量之模組部分(構成追蹤手段的手段的一例);判定操作員的不穩定動作之模組部分(特定手段的一例);作業速度判定模組部分。資料驅動型AI應用程式app1根據該語意分割部16的結果特定操作員的不穩定動作被檢測到的場所。知識型AI應用程式app3為進行程序解析與品質管理的應用程式,活用儲存於重要管理點手冊伺服器11與語言列表伺服器13的資料。知識型AI應用程式app3藉由包含圖6所示的解析程序等用的程序檢測模組部分,與圖7所示的關於語言字典的語音轉換(voice conversion)部分而構成。知識型AI應用程式app3根據語意分割部16的結果檢測是否為現在的程序。AR應用程式app2雖然在圖1中省略圖示,但藉由在現場管理終端機5與遠程管理終端機7就後述的虛擬標籤資訊進行顯示等用的模組部分(通報手段的一例)構成。在該圖2所示的最主要點首先在於使到目前為止未被考慮的人與人的溝通活化並製作以彼此的關係性成為良好的品質為目標之活用考慮,推進知識的共有之知識型AI。而且,在於統合這種知識型AI,與由基於人類的感性的感測器構成的資料驅動型AI。除此之外,在於藉由AR使經驗淺薄的現場管理者與經驗豐富的遠程管理者之間的溝通活化,將統合的結果關係到後述的人才評價、人才培育。
重要管理點手冊伺服器11如圖6所示,包含:儲存現場管理者在遠程管理者的幫助下應參照之關於重要管理點的手冊的資訊之資料庫(DB)11a,知識型AI包含程序資訊管理部11b與判別部11c。此處,作為關於重要管理點的手冊的資訊例如有導致事故的可能性之危險預知、品質管理、用地所在地確認、法律限制的確認、用地狀況的確認等許多重要管理點。以下說明現場管理終端機5與重要管理點手冊伺服器11與遠程管理終端機7的關係。由現場管理終端機5將藉由depth攝影機5a拍攝的影像、動畫資料傳送到知識型AI。程序資訊管理部11b為了進行將傳送來的影像、動畫資料與由遠程管理終端機7傳送來的被認為正確的程序資訊賦予關聯的管理,使判別部11c判別是否能顯示正確的程序的重要管理點手冊。該判別係藉由影像、動畫資料是否對應正確的程序進行判別,在被判斷為可顯示的情形下,重要管理點手冊資料庫(DB)11a將被賦予關聯於正確的程序資訊之重要管理點手冊給予現場管理終端機5,使現場管理者可參照所顯示的重要管理點手冊。另一方面,在判別部11c判斷為不可顯示的情形下,影像、動畫資料也被提供給遠程管理終端機7,藉由經驗豐富的遠程管理者使更正確的程序資訊由遠程管理終端機7傳送至程序資訊管理部11b,判別是否可顯示更正確的程序。如此,藉由影像、動畫資料進行適合現場的正確的程序資訊的確認,同時賦予關聯於正確的程序資訊之重要管理點的手冊的顯示經由現場管理終端機5朝現場管理者進行。
在語言列表伺服器13儲存有將在現場使用的建築用語等的專門的語言列表化的資訊。如圖7所示,藉由現場管理終端機5的麥克風5c傳達的語言以語音資訊(speech information)被輸入到知識型AI,語音資料(voice data)被轉換成文字資料(text data),該文字資料被語言列表資料庫(DB)參照,進行語言列表的抽出。再者,所抽出的語言列表當作語言字典的結果顯示於現場管理終端機5。在由現場管理終端機5進行文字輸入的情形下,被語言列表資料庫(DB)參照進行正文檢索(text search),進行語言列表的抽出。再者,此情形也是以所抽出的語言列表當作語言字典的結果顯示於現場管理終端機5。
在圖1的圖面資訊伺服器15包含:儲存關於現場的土地的資訊之土地資訊伺服器17;對應複數個工程的各個而設置的伺服器,且儲存各工程中的建築圖的資訊之建築圖伺服器19a、19b、19c。土地資訊伺服器17所儲存的土地資訊為三維資訊,建築圖伺服器19a、19b、19c所儲存的建築圖的資訊被三維空間地賦予關聯。在建築圖包含有設計側的設計圖與施工側的施工圖的兩者,對於為了在使用AR的顯示中顯示現場的三維空間的狀況也需要。
圖8是顯示使現場與圖面、位置資料一致的處理之流程圖。圖9是說明現場的狀況之圖。
參照圖9,在現場首先決定也顯示高度的公共座標。活用該公共座標,人孔(manhole)、道路的構造物等係以任意的不動點採用暫時基準點(temporary bench mark)(KBM),予以當作高度的基準。建築現場有用地部分與建築物部分,用地內測點a、b、c、d被決定。而且,建築現場至少有與前面道路的道路邊界線,其他也以鄰地邊界線被劃分為鄰地。邊界鉚釘、板係可成為在(X,Y)之平面的任意的原點。例如在圖9中,若將左下的邊界鉚釘、板取為在(X,Y)之平面的原點,則藉由判明該原點到建築物的距離,成為與建築的原點的關係也決定的關係。據此,圖9所示的建築現場藉由以(X,Y,Z)座標之也包含高度的座標之點群構成的資料顯示。藉由進行原點對準與方向對準,使得藉由AR進行的表現為可能。
參照圖8,在現場側中在步驟G1進行當地3D掃描(3D scanning)。在步驟G2進行用地內測點a~d的設定。在資料側中,在步驟D1進行建築物BIM作成。藉由進行在現場側的步驟G2中的用地內測點a~d的設定,具有(X,Y,Z)座標的點群資訊被由現場側給予資料側,成為建築現場的三維空間能以點群資料表現的狀況。完成這種前提條件,在資料側中在步驟D2中進行點群資料的整理,在現場側中在步驟G3中判斷在由用地內看得到的位置是否有2點公共座標。在有的情形下,前進到步驟G4,進行公共座標與用地內原點之間的距離、高度測量。再者,根據來自現場側的資訊,對資料側以用地內的任意點當作用地內原點進行座標資訊的輸入。另一方面,在沒有的情形下,前進到步驟G5,判斷在邊界鉚釘是否有公共的(X,Y)座標。在有的情形下,前進到步驟G6,判斷邊界鉚釘是否能以4點以上進行當地高度的測量。在可能的情形下,前進到步驟G7,進行邊界鉚釘的高度的測量。再者,根據來自現場側的資訊,對資料側以邊界鉚釘之一當作原點進行座標資訊輸入。另一方面,在步驟G5,在沒有的情形及在步驟G6不可能的情形下,都前進到步驟G8,進行用地內測點與邊界鉚釘之一的距離、高度的測量。再者,根據來自當地側的資訊,對資料側進行以邊界鉚釘之一當作原點之用地內測點的座標資訊輸入。在資料側中,以到當地側的步驟G8的處理進行並根據輸入的座標資訊,在步驟D3中進行點群資料與原點的重疊,在步驟D4中進行點群資料與建築物BIM的重疊。據此,可當作標籤的欄位(field)的利用。在圖10顯示有藉由現場管理終端機5拍攝實際的現場,被進行了數位化的AR的三維空間中的標記被進行的狀況。此處的標記與圖2一樣以朝下的三角形表示標籤,惟以例如像氣球的形狀的標籤進行的顯示也可以,以其他的任何形狀也可以。在該標籤也記載有操作員的屬人的資訊。作為屬人的資訊例如身高等的資訊可當作一例舉出。
圖11是圖2的資料驅動型AI應用程式的一部分和抽出與AR應用程式有關的部分之圖。圖12是顯示操作員的不穩定動作的檢測處理之流程圖。圖13是用以說明圖12的處理中的操作員的不穩定動作的檢測之第一圖,且顯示定界框(頭部與全身)之圖。圖14是用以說明圖12的處理中的操作員的不穩定動作(特徵量的相對的位置變化)的檢測之第二圖,且顯示頭部的定界框的[圖]與[地]之圖。圖15是用以說明圖12的處理中的操作員的不穩定動作(特徵點的相對的速度變化)的檢測之第三圖,且就頭部的定界框的每一時間的位移量顯示之圖。
參照圖11及圖12,現場管理終端機5的depth攝影機5a所拍攝的影像、動畫資料被輸入到操作員特徵部檢測模組(人物檢測模組),參照動作解析用的資料集(data set)之資料驅動型AI的學習資料並進行人物的檢測(參照步驟T1)。在步驟T1中,以圖13所示的頭部的定界框當作特徵點決定,藉由進行該特徵點的抽出進行人物檢測。此處,頭部的定界框為可特定複數個操作員的各個的動作的特徵點的一例,具體上除了貼在操作員的安全帽的QR碼(QR code)(註冊商標)之外,也可藉由以影像分析(image analysis)等實現的量顯示。接著,在步驟T2中藉由操作員特徵量抽出模組進行特徵量的抽出。此處特徵量主要是指由特徵點藉由計算而得到的相對的位置關係資訊,藉由在定界框內在時間上鄰接的影像(圖框(frame))間進行差分計算得到的後述的圖與地的相對的位置關係。所抽出的特徵點及特徵量被儲存在特徵點、特徵量儲存資料庫(DB)(參照步驟T3)。該儲存為頭部的相對的位置會由QR碼(註冊商標)的位置等被辨識,成為用以辨識特徵點的時間的變化的資料的儲存之評價。在步驟T4中,特徵量變異被轉換成操作員的動作,在操作員不穩定動作判定模組中,根據圖14所示的動作的平衡與圖15所示的動作的節律(rhythm),進行所轉換的動作是否為不穩定動作的判定。此處,雖然記載為圖14所示的動作的平衡,但是將在定界框內的[地]與[圖]的平衡看得見變化時定義為不穩定動作,不穩定動作可藉由特徵點或特徵量的相對的位置變化特定,作為具體的動作可舉出[跌倒]或[彎腰/蹲下]。再者,[圖]是指在眺望圖畫或照片、風景時以形狀浮現而看得見的部分或區域,[地]是指擴展於圖的背景的部分。而且,雖然記載為圖15所示的節律,但是將定界框的位移量可看到變化時定義為不穩定動作,不穩定動作可藉由特徵點的相對的速度變化特定,例如在10秒間隔的位移量為x→x→2x→0.5x時,[x→2x]及[2x→0.5x]的位移當作不穩定的位移。也就是說,將突發的且非週期的動作當作不穩定動作檢測。藉由進行這種檢測,由不是穩定的動作,當作可發生事故的危險之處、應被進行重要的管理之管理處的一例被特定。
圖16是用以說明圖12的處理中的操作員的不穩定動作(特徵量的相對的位置變化)的檢測之第四圖,且不僅頭部也顯示全身的定界框的[圖]與[地]之圖。圖17是用以說明圖12的處理中的操作員的不穩定動作(特徵點的相對的速度變化)的檢測之第五圖,且不僅頭部也就全身的定界框的每一時間的位移量顯示之圖。
在圖16及圖17中,顯示就圖13的定界框不僅頭部也就全身進行辨識的情形的處理。顯示由頭部與全身的兩者,關於不穩定動作可藉由特徵量的相對的位置變化(平衡)特定,而且可藉由特徵點的相對的速度變化(節律)特定。
此外,雖然在圖14及圖15中著眼於頭部的定界框及圖與地,在圖16及圖17中著眼於頭部及全身的定界框及圖與地,但是著眼於全身的定界框也可以。再者,若考慮安裝,則作為不重且簡便的處理,不考慮圖與地,關於頭部的動作與全身的動作的關係,像是由兩者的定界框的關係性判斷不穩定動作者也可以。此情形,在當初的學習資料中以上述的簡便的處理即可,之後隨著數據的收集而成為大數據(big data),配合不穩定動作之動作的精度的必要性的等級來使用該大數據,關於區別定界框內的[地]與[圖]的精度也可以提高特定輪廓的精度而當作高精度者。
返回到圖11,在AR應用程式app2中藉由AR模組,以建設、建築現場的管理點座標為基準的虛擬標籤資訊的作成可參照任務伺服器9的工作列表。虛擬標籤與上述管理處對應。對現場管理終端機5與遠程管理終端機7的任一個也是進行了虛擬標籤資訊的作成的結果,可進行虛擬標籤的顯示、虛擬標籤的共有、虛擬標籤的修正。關於該標籤,經現場管理者及遠程管理者的同意而標記有管理內容,或者經現場管理者及以遠程管理的管理者的同意而刪除附加的標籤成為可能。刪除例如如後述,在作為危險處被標記後,進行現場管理者指示操作員消除危險等。再者,可藉由AR在現場管理者及遠程管理者之間共有被標記的標籤的數目、被刪除的標籤的數目或顯示藉由標籤的增減而表現的管理指標之管理指標資訊。
圖18是用以說明以人類為感測器之由特徵點的移動軌跡得到的安全的搬入路徑的檢測之圖。圖19是用以說明由特徵點的移動軌跡得到的操作員屬性資訊儲存之圖。圖20是用以就藉由圖1及圖2的語意分割部進行的判定進行說明之圖。
如圖18所示,藉由儲存複數個操作員的特徵點的移動軌跡起來使得安全的搬入路徑的檢測為可能。而且,如圖19所示,根據由特徵點的移動軌跡得到的作業速度,使得例如m分後的程序預測也可能。該預測藉由圖2的作業速度判定模組進行,當作顯示操作員的能力被儲存於屬性資訊資料庫。而且,如圖20所示,在預先進行使用語意分割的學習並製作學習模式(learning model)的狀態下,藉由對輸入的影像等進行利用語意分割的判定,如後述的圖21所示使得程序檢測與危險檢測為可能。如此,語意分割也扮演重要的角色,特別是對驅動型AI重要,不僅使用於上述判斷,在學習的過程中也重要。因此,為了提高判斷的精度,不僅使用完成學習的模式,與判斷同時進行並當作持續學習者也可以。
圖21是顯示圖2的管理系統的系統全體的處理流程之圖。
在現場管理側中,在步驟ST51中進行建築、建設現場的管理點座標的確認,給予根據之後的位置的處理的參照點。而且,為了順暢地進行與在現場不可或缺的操作員的溝通,在步驟ST52中進行對操作員的語言的理解度的確認。在無法充分地理解的情形下,就會藉由知識型AI的功能參照步驟ST81的語言字典。在該等準備下在步驟ST53開始在現場的3D攝影機攝影,惟該等3個準備作業未必需要依照該順序進行,而且依照需要重複也可以。在步驟ST53得到的攝影資料被利用於程序檢測與危險檢測用。首先,在步驟ST61中使用資料驅動型AI的語意分割功能進行建築、建設現場的區域分割(參照圖20),此被利用於程序檢測與危險檢測雙方用。也就是說,在程序檢測中接受區域分割的結果且要求牆壁、地板等的作業對象區域的寬度,著眼於對該時間的變化份並藉由在步驟ST62中當作現場特徵推定作業的進展情況。另一方面,在步驟ST62中也進行關於操作員的動作的解析,此被當作操作員特徵抽出(參照圖13)。據此,由操作員的動作、位置推定作業的進展情況,如圖19所示,在步驟ST71中該結果時時刻刻被寫入到操作員的屬性資訊資料庫。如此,由現場的狀況與操作員的動作的雙方在步驟ST63中進行程序檢測。再者,該結果與知識型AI功能之一的步驟ST82的重要管理點手冊對照(參照步驟ST66),當作應在現場掌握的重要管理點顯示於現場管理側(參照圖6)。
返回到步驟ST62,所抽出的操作員特徵在步驟ST64中也被使用於危險檢測用。人類使五感起作用,想對應現場的狀況。在建築、建設現場中,以現在的感測器技術水平難以感測,或者常有操作員敏感地察覺到像花費成本的危險的到來並採取迴避行動的情形。例如彎腰/蹲下、跌倒、跳過、感受到氣味/臭味而停住、聽到聲音而改變移動速度等的動作、行動的變化在現場中常被觀察到,該等可成為危險檢測用的有用的資訊。在步驟ST64中,由在圖13、14、15、16、17中說明的操作員的特徵點(在圖中為頭部或全身的定界框)的相對的位置、時間的變化與特徵量(在圖中為由圖、地求出的相對的位置、時間的變化)辨識操作員的不穩定動作,根據此進行危險檢測。其結果係當作危險處候補自動地被通知,在後述的使用AR通信的步驟ST55、步驟ST73中藉由現場管理者與遠程管理者間的確認作業進行確定作業,作成當作對危險處的處理之工作列表。而且,在步驟ST65中,就操作員的移動履歷根據特徵點追蹤進行統計處理,決定在現場的安全通道(參照圖16)。該等安全、危險處顯示係對現場管理側與遠程管理側的雙方進行,而被共有。
一邊綜合地掌握程序進展(步驟ST66)、重要管理點(步驟ST82)、安全、危險處的掌握(步驟ST65),一邊在現場管理中進行在步驟ST54中程序是否順利的確認。在不順利的情形下,程序、成本的重新評價為必要,惟此為在步驟ST72中於遠程管理側中進行。現場管理側與遠程管理側的溝通如步驟ST55、步驟ST73所示藉由AR通信進行,程序、危險處、重要管理點、其他在現場的注意事項等基本上係經由藉由AR通信功能提供的標籤或工作列表如圖2所示被指示、共有。而且,連結現場管理側與遠程管理側的AR通信的功能如圖22所示,如後述,標籤或工作列表既能從現場管理終端機也能從遠程管理終端機藉由3D形式且在雙方向的對話始終進行協調作業。如此,在圖1的任務伺服器(虛擬標籤)9被寫入必須在現場解決的問題點,而在步驟ST56中報告該等問題點的解決、消除狀況。此為用以測量現場管理者的管理能力的資訊,在遠程管理側中在步驟ST74中連結到現場管理者的人事評價。
此外,在圖21中雖然顯示了和如下之處理:與現場管理側的處理,與AI側的處理,與遠程管理側的處理,但是在進行分散處理上是否在任一側被處理則未被限定,AI側的部分的全部或一部分被併入現場管理側也可以,被併入遠程管理側也可以。
圖22是用以說明關於圖2所示的AR模組的通信功能之方塊圖。
使用圖22,簡單地就AR的通信功能進行說明。在現場管理終端機5與遠程管理終端機7之間,AR模組19互相進行通信。AR模組19由現場管理終端機5接受藉由3D攝影機得到的周邊映射資料(mapping data)並得到位置座標資料。在AR模組19中,在由位置座標資料構成的座標貼附由3D攝影機傳送來的影像資料,傳送到遠程管理終端機7。據此,遠程管理終端機7可進行3D顯示,360∘的旋轉顯示為可能。而且,在現場管理終端機5或遠程管理終端機7與AR模組19之間,藉由AR模組19的標籤、工作列表DB使得標籤、重要管理點手冊、工作列表的作成、顯示為可能。再者,藉由現場管理終端機5的攝影機拍攝的動畫資料經由AR模組19被傳送到遠程管理終端機7,在遠程管理終端機7中3D影像顯示也可能。
由上述內容得知,藉由使作為管理處需要管理的危險的種類或處理法等重疊於現場的影像並使標籤移動,可進行記述,可充分地獲得經驗淺薄的現場管理者與熟練的管理者之遠程管理者之間的溝通。此點不僅可適切地進行人才的評價,也關係到現場管理者進行人才培育方面。再者,不限於現場管理者的人才培育,對於指導的側之遠程管理者也有學習,由該點也關係到人才培育。除此之外,現場管理者被適切地評價,作為人才培育也是現場的操作員之操作員適切地發揮自身的權限與責任的狀況,關係到現場成為更佳的狀況,除了操作員的適切的評價之外,也關係到人才培育。據此,不僅會進行在管理者側的技術的傳承,也會導致在操作員側的技術的傳承。
此外,在上述的實施的形態中雖然是進行了根據建築現場的說明,但是也可以在建設現場適用,不管工廠的內外為製造現場也可以,進而為其他領域的現場也可以。
而且,在上述的實施的形態中,在資料驅動型AI中,雖然顯示了使用透過影像分析的機器學習(machine learning)得到的深度學習,但不限於以黑箱(black box)操作這種解析的方式,藉由數學的計算機率地求出也可以。
1:管理系統
3:資訊通信網路
5:現場管理終端機
5a:depth攝影機
5b:LiDAR
5c:麥克風
5d:觸控面板式畫面部
5e:揚聲器
5f:顯示監視器
7:遠程管理終端機
7a:攝影機
7b:觸控面板式畫面部
7c:鍵盤+滑鼠
7d:麥克風
7e:揚聲器
7f:顯示監視器
8:現場管理輔助系統
9:任務伺服器
11:重要管理點手冊伺服器
11a:重要管理點手冊資料庫
11b:程序資訊管理部
11c:判別部
13:語言列表伺服器
14:AI資料驅動型伺服器
15:圖面資訊伺服器
16:語意分割部
17:土地資訊伺服器
17-1:程序檢測部
18:危險檢測部
19a、19b、19c:建築圖伺服器
19:AR模組
圖1是顯示與本發明的實施的形態有關的管理系統的全體之方塊圖。
圖2是顯示圖1的現場管理終端機及遠程管理終端機與AI應用程式(application)及AR應用程式的關係之圖。
圖3是顯示圖1的現場管理終端機的內部構成之方塊圖。
圖4是顯示作為圖3的現場管理終端機(硬體功能構成)的具體例的一例的平板電腦(tablet)之圖。
圖5是顯示圖1的遠程管理終端機的內部構成之方塊圖。
圖6是顯示圖1的現場管理終端機與重要管理點手冊伺服器與遠程管理終端機的關係之方塊圖,且就圖2的AI應用程式之中知識型AI應用程式由重要管理點手冊的觀點進行說明之圖。
圖7是顯示圖1的現場管理終端機與語言列表(list)伺服器的關係之方塊圖,且就圖2的AI應用程式之中知識型AI應用程式由語言字典的觀點進行說明之圖。
圖8是顯示使現場與圖面、位置資料一致的處理之流程圖。
圖9是說明現場的狀況之圖。
圖10是顯示藉由圖3的現場管理終端機拍攝實際的現場,被進行數位化的AR的三維空間中的被進行標記的狀況之圖。
圖11是圖2的資料驅動型AI應用程式的一部分和抽出與AR應用程式有關的部分之圖。
圖12是顯示操作員的不穩定動作的檢測處理之流程圖。
圖13是用以說明圖12的處理中的操作員的不穩定動作的檢測之第一圖,且顯示定界框(bounding box)(頭部與全身)之圖。
圖14是用以說明圖12的處理中的操作員的不穩定動作(特徵量的相對的位置變化)的檢測之第二圖,且顯示頭部的定界框的[圖]與[地]之圖。
圖15是用以說明圖12的處理中的操作員的不穩定動作(特徵點的相對的速度變化)的檢測之第三圖,且就頭部的定界框的每一時間的位移量顯示之圖。
圖16是用以說明圖12的處理中的操作員的不穩定動作(特徵量的相對的位置變化)的檢測之第四圖,且不僅頭部也顯示全身的定界框的[圖]與[地]之圖。
圖17是用以說明圖12的處理中的操作員的不穩定動作(特徵點的相對的速度變化)的檢測之第五圖,且不僅頭部也就全身的定界框的每一時間的位移量顯示之圖。
圖18是用以說明以人類為感測器(sensor)之由特徵點的移動軌跡得到的安全的搬入路徑的檢測之圖。
圖19是用以說明由特徵點的移動軌跡得到的操作員屬性資訊儲存之圖。
圖20是用以就藉由圖1及圖2的語意分割(semantic segmentation)部進行的判定進行說明之圖。
圖21是顯示圖2的管理系統的系統全體的處理流程之圖。
圖22是用以說明關於圖2所示的AR模組的通信功能之方塊圖。
5:現場管理終端機
7:遠程管理終端機
9:任務伺服器
15:圖面資訊伺服器
16:語意分割部
Claims (6)
- 一種管理系統,特定複數個操作員移動的空間內的應管理的管理處,可對管理該空間的狀況的管理者通報該管理處,包含: 追蹤手段,檢測可特定該複數個操作員的各個的動作之特徵點的位置並追蹤該位置的變化; 儲存手段,將該追蹤手段所追蹤的該特徵點的位置的變化置換成該複數個操作員的各個的動作,當作透過機器學習得到的學習資料的動作資訊儲存; 特定手段,根據該儲存手段所儲存的動作資訊,判定該追蹤手段所追蹤的該特徵點的位置的變化是否為該操作員的不穩定動作,特定該管理處;以及 通報手段,在顯示該空間內的圖內顯示該特定手段所特定的該管理處,對該管理者進行通報。
- 如請求項1之管理系統,其中在該特徵點賦予關聯有該各操作員的屬人的資訊。
- 如請求項1或請求項2之管理系統,其中該管理者也包含在該複數個操作員所在的該空間內的現場管理者及離開該空間以遠程管理的管理者的任一個, 該通報手段也對該現場管理者及該以遠程管理的管理者的任一個顯示並通報該管理處。
- 如請求項3之管理系統,其中在該應管理的管理處,經該現場管理者及該以遠程管理的管理者的同意而標記有管理內容,或者經該現場管理者及該以遠程管理的管理者的同意而刪除該附加的標籤, 包含:共有手段,可在該現場管理者及該以遠程管理的管理者之間共有該被標記的標籤的數目、該被刪除的標籤的數目或顯示藉由該標籤的增減而表現的管理指標之管理指標資訊。
- 一種評價系統,包含請求項4之管理系統, 更包含:評價手段,對該複數個操作員與該現場管理者,進行比較在成為基準的程序所要求的基準行動與實際的行動之評價。
- 一種人才培育方法,包含請求項5之評價系統, 進行藉由彌合在該複數個操作員與該現場管理者的各個所造成的經驗的差異之人才培育。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012732 | 2021-01-29 | ||
JP2021-012732 | 2021-01-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202230234A true TW202230234A (zh) | 2022-08-01 |
Family
ID=82653482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111103220A TW202230234A (zh) | 2021-01-29 | 2022-01-25 | 管理系統、評價系統及人才培育方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240062585A1 (zh) |
EP (1) | EP4287105A1 (zh) |
JP (1) | JP7462356B2 (zh) |
CN (1) | CN115917580A (zh) |
TW (1) | TW202230234A (zh) |
WO (1) | WO2022163761A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002287846A (ja) | 2001-03-26 | 2002-10-04 | Mitsubishi Heavy Ind Ltd | 現場支援システム |
JP5770215B2 (ja) | 2013-04-08 | 2015-08-26 | 中国電力株式会社 | 作業エリアに存在する危険箇所に関する情報を収集する方法、及び危険箇所情報収集システム |
WO2017130379A1 (ja) | 2016-01-29 | 2017-08-03 | 日揮株式会社 | 危機管理システム |
EP3285213A1 (en) | 2016-08-16 | 2018-02-21 | Hexagon Technology Center GmbH | Lod work package |
JP7131958B2 (ja) | 2018-05-09 | 2022-09-06 | 高砂熱学工業株式会社 | 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
-
2022
- 2022-01-25 TW TW111103220A patent/TW202230234A/zh unknown
- 2022-01-27 JP JP2022578477A patent/JP7462356B2/ja active Active
- 2022-01-27 CN CN202280004915.2A patent/CN115917580A/zh active Pending
- 2022-01-27 EP EP22745980.7A patent/EP4287105A1/en active Pending
- 2022-01-27 WO PCT/JP2022/003110 patent/WO2022163761A1/ja active Application Filing
- 2022-01-27 US US18/271,805 patent/US20240062585A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115917580A (zh) | 2023-04-04 |
EP4287105A1 (en) | 2023-12-06 |
WO2022163761A1 (ja) | 2022-08-04 |
JPWO2022163761A1 (zh) | 2022-08-04 |
JP7462356B2 (ja) | 2024-04-05 |
US20240062585A1 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Computer vision technologies for safety science and management in construction: A critical review and future research directions | |
Cheng et al. | Real-time resource location data collection and visualization technology for construction safety and activity monitoring applications | |
Khan et al. | Utilizing safety rule correlation for mobile scaffolds monitoring leveraging deep convolution neural networks | |
Chen et al. | A proactive workers' safety risk evaluation framework based on position and posture data fusion | |
Zhou et al. | Construction safety and digital design: A review | |
Golizadeh et al. | Digital engineering potential in addressing causes of construction accidents | |
Xu et al. | Dynamic safety prewarning mechanism of human–machine–environment using computer vision | |
Golovina et al. | Algorithm for quantitative analysis of close call events and personalized feedback in construction safety | |
Mihic et al. | Review of previous applications of innovative information technologies in construction health and safety | |
Nakanishi et al. | A review of monitoring construction equipment in support of construction project management | |
Piao et al. | Dynamic fall risk assessment framework for construction workers based on dynamic Bayesian network and computer vision | |
Kanangkaew et al. | A real-time fire evacuation system based on the integration of building information modeling and augmented reality | |
Ajslev et al. | Virtual design and construction for occupational safety and health purposes–A review on current gaps and directions for research and practice | |
Alzubi et al. | Automated monitoring technologies and construction productivity enhancement: Building projects case | |
Yu et al. | Unmanned aircraft path planning for construction safety inspections | |
Xu et al. | Construction worker safety prediction and active warning based on computer vision and the gray absolute decision analysis method | |
Smith et al. | Wearable augmented reality interface design for bridge inspection | |
TW202230234A (zh) | 管理系統、評價系統及人才培育方法 | |
Yang et al. | Computer Vision for Construction Progress Monitoring: A Real-Time Object Detection Approach | |
Khorrami Shad et al. | State-of-the-art analysis of the integration of augmented reality with construction technologies to improve construction safety | |
Webb et al. | Utilizing BIM as a Tool for Managing Construction Site Safety: A Review of Literature | |
Núñez-Morales et al. | Bi-Directional Image-to-Text Mapping for NLP-Based Schedule Generation and Computer Vision Progress Monitoring | |
Kim et al. | On-site safety management using image processing and fuzzy inference | |
Jiang et al. | Computer vision-based methods applied to construction processes: A literature review | |
Assadzadeh et al. | A review of data-driven accident prevention systems: Integrating real-time safety management in the civil infrastructure context |