KR20140062174A - 핸즈 프리 인스펙션을 위한 시스템들 및 방법들 - Google Patents

핸즈 프리 인스펙션을 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20140062174A
KR20140062174A KR20147010716A KR20147010716A KR20140062174A KR 20140062174 A KR20140062174 A KR 20140062174A KR 20147010716 A KR20147010716 A KR 20147010716A KR 20147010716 A KR20147010716 A KR 20147010716A KR 20140062174 A KR20140062174 A KR 20140062174A
Authority
KR
South Korea
Prior art keywords
interest
inspection computer
control signals
turbine
inspecting
Prior art date
Application number
KR20147010716A
Other languages
English (en)
Inventor
빙롱 시에
야쿱 젠크
클리포드 주니어 핫처
히만슈 바트나갈
포레스트 알. 루지
Original Assignee
지멘스 코포레이션
지멘스 에너지, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 코포레이션, 지멘스 에너지, 인코포레이티드 filed Critical 지멘스 코포레이션
Publication of KR20140062174A publication Critical patent/KR20140062174A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • Primary Health Care (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

디바이스를 인스펙팅하기 위한 시스템들 및 방법들이 개시된다. 방법은 복수의 이동가능 카메라들에 관하여 알려진 위치에 디바이스를 배열하는 단계를 포함한다. 복수의 이동가능 카메라들은 제어가능 작동기 상에 장착된다. 복수의 카메라들은, 사용자 인터페이스를 이용하여, 카메라를 포지셔닝하도록 제어가능 작동기를 제어함으로써, 디바이스를 가리키게 된다. 카메라에 의해 발생된, 디바이스의 이미지가 모바일 및 무선 디스플레이 상에 디스플레이된다. 컴퓨팅 디바이스는 또한, 디바이스의 렌더링된 가상 이미지가 모바일 및 무선 디스플레이 상에 디스플레이되도록 초래한다. 카메라들에 의해 발생된 이미지들로부터, 관심 스트림 및 관심 구역이 모바일 및 무선 디스플레이에서 선택된다.

Description

핸즈 프리 인스펙션을 위한 시스템들 및 방법들 {SYSTEMS AND METHODS FOR HANDS FREE INSPECTION}
관련 출원들의 설명
본 출원은 2011년 9월 22일 출원된 미국 가특허 출원 번호 제 61/537,642호를 우선권으로 주장하고, 상기 미국 가특허 출원의 권익을 청구하며, 상기 미국 가특허 출원은 인용에 의해 본원에 완전히 포함된다.
본 발명은 카메라들 및 컴퓨팅 디바이스들을 이용하는 인스펙션 시스템들 및 방법들에 관한 것이다. 더욱 상세하게, 본 발명은 터빈들을 인스펙팅하기 위한 시스템들 및 방법들에 관한 것이다.
산업용 디바이스들 및 장비에 있어서, 카메라 이미지들로부터의 컴퓨터화된 인스펙션은 매우 정확한 정보를 제공한다. 그러나, 인스펙팅되는 대상물(object)이 복잡한 경우(예를 들어, 최신의 가스 터빈 기계), 그리고 다수의 카메라들 및 카메라들의 다수의 구성들이 수반되는 경우, 인스펙션은 어려워진다. 인스펙팅되는 디바이스와 관련된 데이터는 종종 데이터베이스에 저장된다. 때때로, 다수의 카메라들은, 인스펙션이 적용되기 전에 프로세서에 의해 프로세싱되어야 하는, 디바이스의 상이한 부분들의 이미지들을 기록한다. 인스펙터(inspector)는 종종, 인스펙팅되는 터빈과 같은 큰 대상물 둘레를 이동한다.
인스펙터가, 특히, 터빈의 산업 환경에서, 둘레를 걷는(walk-around) 동안, 대상물과 관련된 데이터를 갖는 강력한 컴퓨터에 신속하게 액세스하는 것은 종종 어렵다. 이는, 인스펙션의 생산성을 방해한다.
이러한 어려움에 대한 다른 이유는, 디바이스들이 크고, 컴퓨터 지원 없이는 분석하기 어려울 수 있는 복잡한 형상들을 갖기 때문이다. 이러한 기계들은 또한, 서로 상호간에 영향을 미치는 서로-관계있는(inter-related) 부분들 및 컴포넌트들을 갖는다. 예를 들어, 밸브를 작동시키는 것은 터빈 회전자 속도, 온도, 및 진동들에 영향을 미칠 수 있고, 이들 모두는, 기계의 상이한 위치들에 있는 상이한 부분들의 인스펙션을 요구할 수 있다. 인스펙션 데이터는 강력한 컴퓨터에서 어그리게이팅(aggregate)될 수 있다. 그러나, 인스펙터가 인스펙션을 수행하기 위해 대상물과 컴퓨터 사이에서 이동해야 하는 것은 효율적이지 않다.
따라서, 복잡한 디바이스들의 컴퓨터 보조(assisted) 핸즈-프리 인스펙션을 위한 새롭고 개선된 시스템들 및 방법론들이 필요하다.
본 발명은, 디바이스를 인스펙팅하는 인스펙터가, 인스펙팅되는 디바이스와 관련하여 카메라 구성의 정확한 상황을 알게 하는 직접적인 지원을 제공한다. 본 발명의 일 양상에 따르면, 조이스틱들, 키보드, 및 마우스를 포함하는 사용자 인터페이스 디바이스들을 갖는 컴퓨터로부터 제어될 수 있는 작동기 상에 카메라들이 인스톨된다. 카메라들은 다수의 자유도(degree of freedom)들을 가질 수 있다. 컴퓨팅 디바이스의 소프트웨어는 작동기들을 완전히 제어하고, 각각의 카메라의 공간적인 위치 및 배향을 안다. 카메라 이미지들은 컴퓨터로부터 무선으로, 이미지들을 디스플레이하는 디스플레이를 갖는 모바일 및 무선 컴퓨터 디바이스에 전송된다. 사용자는, 컴퓨터로부터 모바일 컴퓨팅 디바이스로 전송될 다수의 이미지 스트림들로부터 관심 스트림을, 모바일 컴퓨터 디바이스로부터 선택할 수 있다. 사용자는 또한, 컴퓨터로부터 모바일 컴퓨팅 디바이스로 전송될, 선택된 관심 스트림에서 관심 구역을 선택할 수 있다. 선택된 관심 스트림의 선택된 관심 구역 외의 이미지 데이터는, 컴퓨터로부터 모바일 컴퓨팅 디바이스로 전송되지 않는다.
본 발명의 양상에 따르면, 인스펙션 컴퓨터 및 카메라를 이용하여 터빈을 인스펙팅하기 위한 방법이 제공되고, 방법은, 무선 모바일 디바이스를 이용하여, 인스펙션 컴퓨터와의 무선 연결성(connectivity)을 확립하는 단계, 무선 모바일 디바이스를 이용하여, 터빈의 이미지들의 관심 스트림 및 관심 스트림 내의 관심 구역을 선택하는 단계, 무선 모바일 디바이스가, 인스펙션 컴퓨터로부터 관심 스트림 및 관심 구역을 요청하고, 그 다음으로 관심 스트림의 관심 구역을 나타내는 이미지들을 인스펙션 컴퓨터로부터 수신하는 단계, 및 무선 모바일 디바이스가 관심 구역을 디스플레이하는 단계를 포함한다.
본 발명의 추가의 양상에 따르면, 방법이 제공되고, 복수의 관심 스트림들의 리스트가 모바일 무선 디바이스 상에 디스플레이되고, 관심 스트림이 리스트로부터 선택되고, 인스펙션 컴퓨터로부터 수신된 관심 구역이 인스펙션 컴퓨터에 연결된 메모리로부터 리트리빙(retrieve)된다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 복수의 관심 스트림들의 리스트가 모바일 무선 디바이스 상에 디스플레이되고, 관심 스트림이 리스트로부터 선택되고, 인스펙션 컴퓨터로부터 수신된 관심 구역이 인스펙션 컴퓨터에 연결된 카메라로부터 리트리빙된다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 무선 모바일 디바이스는, 관심 이미지 스트림에 대해, 초당 프레임(frame per second) 파라미터를 선택하고, 인스펙션 컴퓨터는 선택된 초당 프레임에 따라, 관심 이미지 스트림을 무선 모바일 디바이스에 전송한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 선택된 초당 프레임은, 초당 30개의 프레임들 미만이다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 무선 모바일 디바이스가 프로브(probe) 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 프로브 제어 신호들을 프로세싱하는 단계를 포함한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 무선 모바일 디바이스가 카메라 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 카메라 제어 신호들을 프로세싱하는 단계를 포함한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 무선 모바일 디바이스가 트리거 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 트리거 제어 신호들을 프로세싱하는 단계를 포함한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 무선 모바일 디바이스가, 프로브 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 프로브 제어 신호들을 프로세싱하는 단계, 카메라 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 카메라 제어 신호들을 프로세싱하는 단계, 및 트리거 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 트리거 제어 신호들을 프로세싱하는 단계를 포함한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 무선 모바일 디바이스가, 관심 구역의 터빈의 모델 및 관심 구역의 터빈의 이미지에 대한 요청을 인스펙션 컴퓨터에 전송하는 단계, 관심 구역의 터빈의 모델 및 터빈의 이미지를 인스펙션 컴퓨터로부터 수신하는 단계, 및 관심 구역의 터빈의 모델 및 터빈의 이미지를 무선 모바일 디바이스 상에 디스플레이하는 단계를 포함한다.
본 발명의 또한 추가의 양상에 따르면, 방법이 제공되고, 방법은, 인스펙션 컴퓨터가, 무선 모바일 디바이스에 관한 송신 품질에 따르는 프레임 레이트로, 이미지들의 관심 스트림 내의 관심 구역을 전송하는 단계를 더 포함한다.
본 발명의 다른 양상에 따르면, 인스펙션 컴퓨터 및 카메라를 이용하여 터빈을 인스펙팅하는 시스템이 제공되고, 시스템은: 인스펙션 컴퓨터와의 무선 연결성을 확립하도록 인에이블된 무선 모바일 디바이스를 포함하고, 무선 모바일 디바이스는, 터빈의 이미지들의 관심 스트림 및 관심 스트림 내의 관심 구역을 선택하는 단계, 인스펙션 컴퓨터로부터 관심 스트림 및 관심 구역을 요청하고, 그 다음으로 관심 스트림의 관심 구역을 나타내는 이미지들을 인스펙션 컴퓨터로부터 수신하는 단계, 및 관심 구역을 디스플레이 상에 디스플레이하는 단계를 수행하는 명령들을 실행시키도록 인에이블된 프로세서를 포함한다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 복수의 관심 스트림들의 리스트가 모바일 무선 디바이스 상에 디스플레이되고, 관심 스트림이 리스트로부터 선택되고, 인스펙션 컴퓨터로부터 수신된 관심 구역이 인스펙션 컴퓨터에 연결된 메모리로부터 리트리빙된다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 복수의 관심 스트림들의 리스트가 모바일 무선 디바이스 상에 디스플레이되고, 관심 스트림이 리스트로부터 선택되고, 인스펙션 컴퓨터로부터 수신된 관심 구역이 인스펙션 컴퓨터에 연결된 카메라로부터 리트리빙된다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 무선 모바일 디바이스는, 관심 이미지 스트림에 대해, 초당 프레임 파라미터를 선택하고, 인스펙션 컴퓨터는 선택된 초당 프레임에 따라, 관심 이미지 스트림을 무선 모바일 디바이스에 전송한다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 선택된 초당 프레임은, 초당 30개의 프레임들 미만이다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 시스템은, 무선 모바일 디바이스가 프로브 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 프로브 제어 신호들을 프로세싱하는 것을 포함한다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 시스템은, 무선 모바일 디바이스가 카메라 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 카메라 제어 신호들을 프로세싱하는 것을 포함한다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 시스템은, 무선 모바일 디바이스가 트리거 제어 신호들을 인스펙션 컴퓨터에 전송하고, 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 트리거 제어 신호들을 프로세싱하는 것을 포함한다.
본 발명의 또한 다른 양상에 따르면, 시스템이 제공되고, 시스템은, 인스펙션 컴퓨터가, 무선 모바일 디바이스에 관한 송신 품질에 따르는 프레임 레이트로, 이미지들의 관심 스트림 내의 관심 구역을 전송하는 것을 더 포함한다.
상술된 방법들 및 본 명세서에 기술된 다른 방법들을 수행하는 시스템들이 또한, 본 발명의 양상들에 따라 제공된다.
컴퓨팅 디바이스는 각각의 제어가능 작동기에, 그리고 적어도 하나의 디스플레이에 연결되고, 각각의 제어가능 작동기를 제어하기 위해 사용자 인터페이스를 포함한다. 컴퓨팅 디바이스는 또한, 렌더링된 가상 이미지가, 적어도 하나의 디스플레이 상에서 디스플레이되게 초래한다.
도 1은 본 발명의 양상에 따라 디바이스를 인스펙팅하기 위한 시스템을 예시한다.
도 2는 본 발명의 양상에 따른 모바일 태블릿의 이용을 예시한다.
도 3은 본 발명의 양상에 따른 모바일 태블릿의 이용을 예시한다.
도 4는 본 발명의 양상에 따라 터빈 인스펙션을 위해 이용되는 모바일 태블릿 상의 디스플레이를 예시한다.
도 5는 본 발명의 양상에 따른 모바일 인스펙션 태블릿의 셋업을 예시한다.
도 6은 본 발명의 양상에 따라 모바일 인스펙션 태블릿 상에서 이용되는 GUI를 예시한다.
도 7은 본 발명의 양상에 따른 모바일 인스펙션 태블릿의 터치 스크린 상의 디스플레이를 예시한다.
도 8은 본 발명의 양상에 따른 모바일 인스펙션 태블릿을 이용한 터빈의 인스펙션을 예시한다.
도 9는 본 발명의 양상에 따라 디바이스들을 인스펙팅하기 위한 시스템을 예시한다.
도 10은 본 발명의 양상에 따라 발생된 이미지를 예시한다.
복잡한 기계류(machinery)의 인스펙터가, 기계류의 특정 부분들의, 완전하고 가로막는 것이 없는(unobstructed) 뷰를 획득하는 것은 종종 어렵다. 여러번, 기계의 다수의 부분들을 동시에 뷰잉하는 것이 바람직하다. 기계 또는 기계 부분의 환경에서의 변경 또는 수정이, 하나의 위치에 있는 인스펙터에게 직접적으로 가시적이지 않은 부분에서 다른 곳에 있는 기계에 영향을 미칠 수 있다는 것이 잘 알려져 있다.
몇몇 상황들에서, 인스펙션 동안의 기계의 시각적인 현재 조건을, 더 이전의(earlyer) 인스펙션 동안 기록되었던 이전의 조건의 콘텍스트에 두는 것이 또한 바람직하다.
동일한 양수인에 의해 공동-소유된, 별개의 그리고 공동-계류중인 특허 출원에서, 복잡한 시각적 인스펙션에서 상황 인식(situational awareness)을 제공하는 사이드-바이-사이드(side-by-side) 인스펙션 시스템이 기술되었다. 사이드-바이-사이드 접근방식을 이용한 이와 같은 시스템에서, 사용자는, 모든 카메라들 및 프로브 제어기가 연결되는 PC(데스크톱 또는 랩톱) 앞에서 작업한다. 본 발명의 일 실시예에서 프로브는, 프로브 제어기에 의해 제어되는 로봇 아암(robotic arm)과 같은 조종가능(navigable) 디바이스에 부착된다. 프로브 그 자체는 카메라, 온도 센서, 또는 조종가능 디바이스에 부착될 수 있는 임의의 다른 센서 또는 작동기일 수 있다. 복수의 프로브들, 예를 들어, 카메라 및 온도 센서가 조종가능 디바이스에 부착될 수 있다. 조종가능 디바이스의 움직임 또는 조종(navigation)은 프로브 제어기를 통해 오퍼레이터에 의해 제어된다.
인스펙팅되는 실제 디바이스, 예를 들어 가스 터빈 기계가 종종 매우 크기 때문에, 사용자는, 인스펙션을 수행하면서 기계 둘레를 걷고, 실태(actual situation)를 체크할 필요성을 갖는다. 인스펙션 제어 PC에 계속 액세스하고 있으면서, 사용자를, 그러한 PC 앞에 앉아 있게 하는 것 또는 PC로 되돌아가야 하는 것을 없애고, 사용자가 실제 디바이스를 체킹하도록 허용하는 것이 유익할 것이다. 본 발명의 양상에 따르면, 사용자가, 인스펙션 작업의 대부분 동안 부피가 큰(bulky) 데스크톱 또는 랩톱 PC에서 작업하는 대신에, 경량의(light-weight) 모바일 컴퓨터 태블릿을 이용하는 것을 허용하는, 인스펙션 및 데이터 수집을 위한 방법들 및 시스템들이 제공된다.
도 1은 본 발명의 일 실시예를 예시한다. 도 1의 시스템은, 예를 들어, 데스크톱 또는 랩톱 컴퓨터인 인스펙션 PC를 포함한다. 인스펙션 PC는, 예를 들어 iPad®인 모바일 태블릿과의 통신을 핸들링하는 커뮤니케이터(communicator) 모듈을 갖는다. 태블릿은, 프로세서, 외부 디바이스와 통신하는 무선 통신 디바이스, 디스플레이, 및 디스플레이 위의 터치스크린일 수 있는 데이터 입력 디바이스를 포함한다. 바람직하게, 태블릿은 카메라를 포함한다.
인스펙션 PC와 모바일 태블릿 사이의 통신 링크는 무선이고, 예를 들어 Wi-Fi를 통한다. 인스펙션 PC는 카메라에 의해 발생된 데이터를 캡쳐하기 위해 카메라 캡쳐부를 포함한다. 인스펙션 PC 내에서 또는 별개의 트리거 보드 상에서, 프로세서는, 카메라에게 기록하도록, 또는 프로세서에게 카메라에 의해 기록된 일련의 이미지들로부터 이미지를 선택하도록 명령하는 트리거 신호를 발생시키도록 인에이블된다. 트리거 보드 상의 프로세서는, 기준 터빈 블레이드가 센서를 지나갈 때를 알리는(alert) OPR(Once Per Rotation) 신호를 터빈의 OPR 센서로부터 수신한다. OPR 신호로부터, 카메라를 위한 트리거 모멘트(trigger moment)가 발생되고, 카메라는 계산된 모멘트에서 터빈 블레이드의 이미지를 찍는다.
특정 이미지가 캡쳐되어, 자기 디스크와 같은 데이터 저장 디바이스 상에 저장될 수 있다. 인스펙션 PC는, 원하는 트리거 모멘트 및 요구되는 오프셋들을 설정하기 위해 사용자로부터, 바람직하게는 GUI(Graphics User Interface)를 통해 입력을 수신하는 트리거 제어부를 포함한다.
본 발명의 일 실시예의 커뮤니케이터는 카메라들로부터의 라이브(live) 비디오들을 모바일 태블릿에 스트리밍한다. 이는, 캡쳐 제어, 메타 데이터 변경, 및 프로브 조종의 요청들을 모바일 태블릿으로부터 수용하고, 동작을 수행하도록 카메라 캡쳐부, 트리거 제어부, 및 프로브 제어부에 명령한다.
도 2는 모바일 태블릿이 인스펙션에 유용한 하나의 시나리오를 예시한다. 큰 기계(200)는, 모바일 태블릿(207)을 이용하여 인스펙터(210)에 의한 시각적 인스펙션이 필요한 부분(205)을 갖는다. 기계(200)는, 카메라를 포함할 수 있는 하나 또는 둘 이상의 프로브들(203)에 의해 모니터링되고, 작동기를 포함할 수 있는 제어 디바이스(204)에 의해 제어되는 구동 부분(202)을 갖는다. 밸브일 수 있는 제어 디바이스(204)는, 컴퓨터(201)로부터 개방 및 폐쇄될 수 있다. 컴퓨터(201)는 네트워크(208)에 연결되고, 상기 네트워크(208)에는 206을 모니터링하는 카메라(211)와 같은 일련의 센서들이 연결되고, 이는 컴퓨터(201)에 의해 모니터링될 수 있다. 기계(200) 상의 다른 부분(206) 및 부분(205) 양측 모두는 202의 조건에 의해 영향받는다. 디바이스(205)에 가까운 위치 상에 있는, 태블릿 컴퓨터를 갖는 인스펙터(210)는 컴퓨터(201)로부터 멀리 있고, 206을 볼 수 없다. 혹독한(harsh) EM 환경에서, 네트워크(208)는 바람직하게, 차폐 케이블(shielded cable) 또는 광학 케이블을 포함한다.
특정 조건들 하에서, 202가 수행(performance)에 있어서 변경될 때, 디바이스(205)에 관하여 무슨 일이 발생하는지를, 실시간으로 그리고 인스펙터의 최상의 관점(perspective)에서 확인하기 위해, 인스펙터가 디바이스(205)를 직접적으로 뷰잉하는 것이 바람직하다. 인스펙터는 또한, 202의 수행 또는 셋팅의 결과로서 디바이스(205)에서 무슨 일이 발생하는지를 확인하기를 원할 것이다. 디바이스(202)는 201에서 제어된다. 하나의 알려진 접근방식은, 모두가, 활동들 및 관측들을 조정(coordinate)하기 위해 전화기들 또는 무선 디바이스들을 갖는, 다수의 인스펙터들 ― 201에 한 명, 206에 한 명, 그리고 205에 한 명 ― 을 수반하는 것이다. 이는 이상적인 솔루션이 아닌데, 그 이유는 요구되는 조정의 레벨이, 에러 및 오해(misinterpretation)에 대한 충분한 여지를 초래하기 때문이다. 더욱이, 혹독한 환경은, 무선 또는 오디오 통신들의 이용에 도움이 되지 않는다. 또한, 몇몇 경우들은, 기계류 둘레의 작업 조건들 때문에 그리고 둘 또는 셋 이상의 개개인들을 수반하는 것 때문에 용이하지 않을 수 있는 신속한 리액션을 요구할 수 있다.
디바이스(200)는 본 발명의 일 실시예에서, 네트워크(208)에 연결되는 카메라(211)와 같은 카메라들에 의해 모니터링된다. 무선 통신을 용이하게 하기 위해, 무선 통신들을 위한 블루투스 허브와 같은 라우터 또는 허브(212)가 네트워크(208)에 부착될 수 있다. 특수 카메라들이 또한 대상물에 부착될 수 있다. 예를 들어, IR(Infra-Red) 카메라가, 터빈의 고온의(hot) 부분들을 모니터링하기 위해 터빈의 포트에 부착될 수 있다. IR 카메라 이미지들은 또한 컴퓨터(201) 상에서 이용가능하다.
명백하게, 인스펙터가 컴포넌트의 동작을 뷰잉하면서 상기 컴포넌트의 관련 데이터를 뷰잉하는 것이 유익할 것이다. 예를 들어, 일 실시예에서, 인스펙터는, 부분, 상기 부분의 이미지 및 배경 정보, 이를 테면 상기 부분의 CAD 모델을 관측한다. 이는, 인스펙터가, 부분을 상기 부분의 콘텍스트에서, 그리고 이미지 데이터 및 CAD 데이터와 함께 뷰잉하고, 예를 들어 상기 부분의 형상에 있어서의 임의의 중요한 차이들을 검출하도록 허용한다. 태블릿 디바이스(207)의 도움으로, 인스펙터는 또한, 인스펙터가 서있는 위치와 관련되지만, 그러한 포지션에서는 가시적이지 않은 대상물의 부분을, 임의의 다른 관련 데이터 또는 카메라들로부터의 ― 201 상에서 이용가능함 ― 이미지들을 이용함으로써 뷰잉한다.
컴퓨터(201)와 무선 접촉되는 태블릿 또는 심지어 더 작은 스마트폰(207)의 이용은, 해결될 필요가 있는 여러 제한들을 갖는다. (1) 상기 태블릿 또는 스마트 폰(207)은, 다수의 스크린들을 가질 수 있는 컴퓨터(201)의 디스플레이보다 훨씬 더 작은 디스플레이 스크린을 갖고; (2) 허브(212)를 통하더라도, 디바이스(207)로부터 201로의 무선 통신들은 그것의 대역폭이 제한될 수 있고; (3) 207에서의 프로세싱 및/또는 저장 능력이 제한될 수 있어서, 프로세싱 및 디스플레이를 위해 매우 큰 데이터 스트림들의 핸들링의 제한된 능력을 제공한다.
적어도 상기 이유들 때문에, 그리고 본 발명의 양상에 따라, 인스펙터는, 디바이스(207) 상에서, 관심 이미지들의 하나 또는 둘 이상의 스트림들(SOI)을, 그리고 스트림 내에서 관심 구역(ROI)을 선택하도록 인에이블된다. 이는 도 3에서 예시된다. 도 3은 이미지들(301, 302, 및 303)을 이용하여, 디바이스(207)의 디스플레이를 도면으로 예시한다. 이미지들(301, 302, 및 303)은 본 발명의 일 실시예에서, 3개의 상이한 카메라들로부터 획득되고, 당 분야에서 알려진 바와 같이 윈도우에서 각각 디스플레이되는 정지 이미지들 또는 사진들이다. 본 발명의 일 실시예에서, 적어도 하나의 이미지는 비디오 이미지이다. 본 발명의 일 실시예에서, 적어도 하나의 이미지는, 상기 적어도 하나의 이미지가 카메라에 의해 기록되었던 레이트보다 더 느린 디스플레이 레이트의 비디오 이미지이다. 본 발명의 일 실시예에서, 메뉴 아이템들(304 및 305)이 디스플레이 상에 디스플레이된다.
본 발명의 일 실시예에서, 디스플레이(300)는 터치 스크린을 갖고, 상기 터치 스크린 상에서 메뉴들 또는 메뉴 아이템들이 활성화 또는 비-활성화될 수 있고, 윈도우들이 사이징(size) 또는 리사이징(resize)될 수 있고, 스크린 상에서 아이템들 및 윈도우들이 선택, 이동, 활성화될 수 있고, 알려진 그리고 터치 스크린 기반 컴퓨터들 상에서 이용가능한 임의의 동작을 겪을 수 있다. 예를 들어, 터치 펜을 이용하여, 터치 스크린 상에서 아이템(304 또는 305)을 활성화시킴으로써, 이미지들(301, 302, 및 303)이 좌측으로 또는 우측으로 각각 이동될 것이고, 상기 이미지들(301, 302, 및 303)이 스크린의 에지에 도달하여 지나감에 따라 상기 이미지들(301, 302, 및 303)이 스크린으로부터 사라질 것이고, 부가적인 이미지들이 스크린의 반대 측 상에 나타날 것이다. 이는, 가상 공간에서, 디스플레이의 공간 외부에 있는 이미지(306)를 이용하여 예시된다. 메뉴 아이템(304)이 활성화될 때, 모든 이미지들은 좌측으로 이동한다. 결국, 이미지(301)가 좌측 상에서 스크린으로부터 사라질 것이고, 이미지(306)가 스크린의 우측 상에서 나타날 것이다.
이는, 작은 스크린(300)이, 인스펙션 동안 디스플레이를 위해 선택될, 카메라들의 여러 이미지들을 디스플레이하는 것을 허용한다. 이미지를 선택함으로써, 예를 들어 스크린 상에서 터치펜을 이용하여 상기 이미지를 터치함으로써, 이미지가 확대되어, 스크린(300)의 더 큰 부분 상에서 디스플레이된다. 도 4는 스크린(300) 상에 활성화되고 확대된 이미지(301)를 예시하고, 상기 스크린(300)은, 뷰잉을 위해, 관심 있는 부분(401)을 갖는 디바이스(400)의 이미지를 보여준다. 본 발명의 일 실시예에서, 디바이스(401)의 이미지와 함께 이미지(301)가 도시된다. 사용자는 관심 구역을 개시 및 설정하기 위해 401 둘레의 윈도우(402)를 드로잉(draw) 또는 활성화한다. 본 발명의 일 실시예에서, 시스템(201)은, 디바이스(400)의 401의 위치를 식별하기 위해 디바이스(400)의 도면을 발생시키도록, 디바이스의 CAD 데이터 및 디바이스에 관한 카메라의 위치의 지식을 적용한다. 일반적으로, 이러한 콘텍스트 이미지는 401을 뷰잉하기 위해 작은 스크린 상에 드로잉될 필요가 없다. 그러나, 여러 카메라들이 이용되고 있는 경우, 윈도우(401)의 콘텍스트를 리콜(recall)하는 것이 인스펙터에게 도움이 될 수 있다. 메뉴를 활성화함으로써, 스크린(300) 상의 이미지가, 디바이스(400)의 CAD 도면의 콘텍스트에서 윈도우(402)를 일시적으로 보여주기 위해, 리사이징될 수 있다. 카메라 발생 이미지의 최대 이미지가, CAD 도면의 전체적인 사이즈보다 더 작은 301이라는 것을 확인할 수 있다.
본 발명의 일 실시예에서, 배향 및 상대적 위치를 포함할 수 있는 간략한 설명 또는 라벨이, 이미지를 갖는 윈도우에 부착된다. 라벨은 요구에 따라 디스플레이될 수 있다.
ROI들 및 SOI들의 선택 및 준비는 디바이스(207) 상에서 및/또는 디바이스(201) 상에서 발생할 수 있다. 컴퓨터(201)가 207보다 훨씬 더 강력하고 더 큰 디스플레이를 갖기 때문에, 모든 선호도(preference)들을 설정하고, 디바이스(207)의 셋팅을 디바이스(207)의 인스펙션 셋팅들과 동기화하기 위해, 인스펙션 준비를 컴퓨터(201) 상에서 행하는 것이 유익할 수 있다. 디바이스들(207 및 201)의 동기화 동안, 스크린 사이즈를 포함한, 디바이스(207)의 특성들이 디바이스(201)에게 알려진다. 디바이스(207)에 대한 셋업은 컴퓨터(201) 또는 유사한 강력한 컴퓨터 상에서 수행될 수 있다. 이는 도 5에서 예시된다. 도 5는, 모든 관련 카메라들, 센서들, 데이터베이스들, 및 인스펙션과 관련되는 다른 디바이스들 및 작동기들에 대한 액세스를 갖는 201과 같은 강력한 컴퓨터의 디스플레이(501)를 예시한다. 상기 디스플레이(501)는 구성되어야 하는 디바이스(207)의 이미지(507)를 보여준다. 컴퓨터(201)를 이용하여 디스플레이(501) 상에 207의 원하는 구성을 전개할 수 있다. 커스터마이징가능(customizable) 데이터가 윈도우(503)를 통해 입력될 수 있다. 이는, 디바이스(207)와 컴퓨터(201) 사이의 송신 조건들의 특징화(characterization)를 포함할 수 있고, 프레임 레이트, 해상도, 스트림들의 수 등에 영향을 미칠 것이다.
카메라는 비교적 넓은 시야(field of vision)를 가질 수 있고, 관심 영역과 비교하여 높은 해상도 이미지 센서들을 적용할 수 있다. 이미지 프로세서의 이용은, 제한된 수의 이미지 프레임들이 비디오 이미지들의 스트림에서 선택되는 것, 더 작은 관심 영역이 캡쳐, 전송, 및 디스플레이되는 것을 허용한다. 이는 도 4에 예시되었으며, 도 4는, 이미지를, 세부사항의 중요한 손실 없이 스크린(300)의 사이즈로 확대함으로써, 윈도우(402)에서 뷰잉될 수 있는 더 작은 관심 대상물(401)을 갖는 큰 대상물의 이미지(301)를 도면으로 도시한다.
대상물(401)이 높은 EM 간섭 환경에 위치되어 있다고 가정한다. 이미지(301)가 카메라에 의해 기록된다. 본 발명의 일 실시예에서, 이미지를 카메라로부터, 무선 채널을 통해 휴대용 및 모바일 컴퓨팅 디바이스(207)로 전송하기를 원할 것이다. 따라서, 대상물 가까이에서 작업하는 인스펙터는 401의 상세한 이미지를 뷰잉할 수 있을 것이다. 그러나, 그러한 시나리오에서, 도 2의 컴퓨팅 디바이스(201)는 프로세싱을 위해 전체 이미지를 207로 전송하여야 한다. 예를 들어, 혹독한 환경에서의 무선 간섭으로 인해, 디바이스(207)는, 카메라에 의해 발생되어 201에 의해 제공된 바와 같은 비디오 이미지들을 수신하지 못할 수 있다. 또한, 디바이스(207)가 이미지들을, 201에 의해 제공된 바와 같이 프로세싱 및/또는 디스플레이할 수 없는 경우가 흔할 수 있다. 그러한 경우, 이미지들을 프로세싱하여, 카메라 발생 이미지들의 다운-사이징 버전을 모바일 디바이스(207)에 전송하도록 201에 명령하는 것이 유리할 수 있다. 본 명세서에서, 다운사이징된다는 것은, 더 작은 이미지 영역, 더 낮은 프레임 레이트(단일 이미지에 이르기까지), 및 더 낮은 해상도일 수 있다.
잡음 및/또는 제한된 대역폭을 갖는 채널을 통해, 에러-없는(error-free) 정보를 전송하기 위해, 잡음 및/또는 대역폭을 시간에 대해 교환할 수 있다는 것이 알려져 있다. 본 발명의 일 실시예에서, 데이터의 송신을 위해 단지 10 kbit/sec까지의 능력을 제공하는, 디바이스(207)로의 고잡음 제한 대역폭(high noise limited bandwidth) 무선 채널이 가정된다. 본 발명의 양상에 따르면, 컴퓨터 디바이스(201)는, 10 kbit/sec의 요건을 충족하도록 구성된 이미지를 디스플레이를 위해 디바이스(207)에 전송하도록 구성된다.
본 발명의 양상에 따르면, 예를 들어, 알려진 데이터 시퀀스들의 교환에 기초하여, 무선 채널을 통해, 201과 207 사이에 적합한 데이터 송신 시스템을 제공할 수 있다. 디바이스들(201 및 207)은, 채널의 품질에 기초하여, 송신 레이트 및 에러 정정 코딩 방법들을 포함하는 송신 및 수신 방법들을 설정할 것이다. 본 발명의 일 실시예에서, 디바이스들(201 및 207)은 최악의 시나리오(worst case scenario)에 기초하여 프로그래밍될 수 있고, 채널은 미리 규정된 송신 레이트를, 그러나 초과하지 않게, 유지한다고 가정된다. 본 발명의 일 실시예에서, 이러한 가정된 송신 레이트는 10 kbit/sec를 초과하지 않는다. 본 발명의 일 실시예에서, 이러한 가정된 송신 레이트는 100 kbit/sec를 초과하지 않는다. 본 발명의 일 실시예에서, 이러한 가정된 송신 레이트는 1 Mbit/sec를 초과하지 않는다. 본 발명의 일 실시예에서, 이러한 가정된 송신 레이트는 10 Mbit/sec를 초과하지 않는다. 본 발명의 일 실시예에서, 이러한 가정된 송신 레이트는 10 Mbit/sec를 초과하지 않는다.
대역폭이 다수의 비디오 데이터 스트림들의 실시간 송신 및 수신에 충분한 경우, 디바이스(207)의 셋팅들은 일반적으로, 대역폭에 의해서가 아니라, 이미지들을 디스플레이하는 디바이스(207)의 능력 및 기량에 의해 결정된다.
본 발명의 일 실시예에서, GUI(600)는 카메라에 의해 발생된 이미지를 디스플레이하기 위해 컴퓨터 스크린 상에서 오픈된다. 상기 GUI(600)는, 카메라에 의해 발생된 이미지(301)를 보여준다. 관심 구역을 모바일 디바이스(207) 상에 디스플레이하도록 윈도우(402)가 오퍼레이터에 의해 선택된다. 기록 동안의 시간 기간, 선호되는 프레임 레이트, 실시간의 또는 속도가 늦춰진(slowed-down) 디스플레이, 콘텍스트(정지(still)) 배경 이미지 ― 윈도우(402)는 현재의 이미지를 갖고 있음 ― 를 제공하기를 원하는 경우, 더 느린 프레임 레이트로 기록될 때의 이미지들의 타이밍을 설정하는 것, 윈도우의 사이즈, 해상도, 흑색/백색 디스플레이(black/white display) 등과 같은 추가의 선호도들을 GUI에서 설정할 수 있다.
도 6의 메뉴 아이템들은, 대역폭이 충분하고, 모든 셋팅들이 오퍼레이터 편의에 기초하는 경우, 셋팅에서 독립적일 수 있다. 그러나, 대역폭이 제한된 경우, 상이한 셋팅이 관련될 수 있어서, 예를 들어, 프레임 레이트의 손실(cost)로 더 높은 해상도가 달성된다. 모든 데이터가 강력한 기계(201)에서 이용가능하며, 일반적으로, 모바일 디바이스로의 데이터의 전달을 제한할 것은 대역폭 또는 프로세싱 제한이다.
본 발명의 일 실시예에서, 모바일 디바이스(207)는, 도 7에 예시된 바와 같은 터치 스크린(700) 상에서 활성화될 수 있는 GUI를 갖는다. 하나의 관심 스트림(SOI)의 관심 구역(ROI)을 디스플레이하기 위해 스크린의 전부 또는 대부분에 적용되는 이미지가 모바일 디바이스의 스크린(700) 상에 디스플레이된다. 본 발명의 일 실시예에서, 적어도 3개의 메뉴 아이템들: 이미지들(Images), 센서들(Sensors), 및 제어(Control)를 갖는 메뉴(702)가 활성화된다. 디스플레이되는 이미지는 사이즈(701)까지 감소된다. 일 실시예에서, 701은, 어떠한 세부사항들도 뷰잉될 수 없을 정도로 너무 작지만, 단지, 터치펜을 이용하여 상기 701을 터치함으로써 활성화될 수 있는 뷰잉 윈도우에 대한 리마인더(reminder)로서만 존재할 수 있다. 이미지들(Images) 아이템은, 새로운 ROI 또는 특정 ROI를 갖는 새로운 SOI를 콜업(call up)하도록 허용하며; 센서들(Sensors) 아이템은, 센서 데이터를 콜업 및 뷰잉하도록 허용하며; 제어(Control) 아이템은, 기계에 명령하기 위해, 모바일 컴퓨터(207)로부터 컴퓨터(201)로 전달되는 기계 셋팅을 선택하도록 허용한다.
본 발명의 일 실시예에서, 카메라, 중앙 컴퓨터에 연결된 머신, 및 중앙 컴퓨터로부터 관심 구역 또는 관심 비디오 스트림을 수신하도록 인에이블된 모바일 컴퓨터는, 100 평방 미터보다 더 크지 않은 단일 룸(room) 내에 모두 위치된다. 본 발명의 일 실시예에서, 카메라, 중앙 컴퓨터, 및 모바일 컴퓨터 중 적어도 하나는 단일 룸 내에 있지 않다.
태블릿 컴퓨터 또는 스마트폰이고, 모바일 태블릿으로 지칭될 수 있는 모바일 컴퓨터(207)가, 사용자에게 GUI를 제공하기 위해 전문화된(specialized) 소프트웨어를 실행시킨다는 것이 상기에서 논의되었다. 사용자는, 인스펙션 PC로 지칭될 수 있는 컴퓨터(201)로부터의 데이터를 갖는 메인 디스플레이로서, 예를 들어, 관련 CAD 모델의 3D 뷰뿐만 아니라, 하나 또는 둘 이상의 카메라 비디오들을 선택할 수 있다. 이는, 사용자가 각각의 액션들을 수행하도록 허용하는 캡쳐 제어, 메타데이터 디스플레이, 및 프로브 조종을 또한 특징으로 한다.
이러한 구성에서, 초기 하드웨어 및 소프트웨어가 셋업된 후에, 사용자는 태블릿을 휴대(carry)하고, 인스펙션을 수행하는 능력들을 상실함이 없이 인스펙션의 대상 둘레를 자유롭게 걷는다.
논의된 바와 같이, 비디오 스트리밍 또는 3D 뷰 스트리밍은 상당한 대역폭 또는 데이터 처리량 능력들을 필요로 하는 반면, 산업 분야 환경은 종종, 강한 전자기(electromagnetic) 간섭으로 인해, Wi-Fi 대역폭을 최대한으로 활용하도록 전자기 우호적(friendly)이지 않다. 본 발명의 양상에 따르면, 관심 스트림들(SOI), 및 관심 구역들(ROI)은, 바람직하게, 모바일 태블릿으로부터 규정된다. 다양한 카메라 비디오들 및 3D 뷰 중에서, 사용자는 뷰잉을 위해 하나 또는 둘 이상의 스트림들(SOI들)을 선택할 수 있다. 다른 스트림들은, 대역폭을 절약하기 위해 전달되지 않을 것이다. 각각의 SOI를 이용시, 태블릿 스크린 이스테이트 가용성(screen estate availability)에 따라, 모바일 태블릿이, 전달될 관심 구역(ROI)을 선택하도록 허용하고, 가시적이지 않은 또는 모바일 태블릿 상에서 원해지지 않는 이미지의 부분은 전달되지 않는다. 단지 SOI들/ROI들만을 전달하는 것은, 모든 이용가능한 이미지들을 전달하는 것보다 더 적은 대역폭을 요구하고, 사용자 경험을 개선한다.
도 8은 본 발명의 양상에 따라 인스펙팅되는 디바이스 및 인스펙션 시스템을 추가로 예시한다. 인스펙팅되는 디바이스(810)가 예시된다. 디바이스(810)는, 터빈들, 가스 터빈들 등을 포함하는 다수의 디바이스들 중 임의의 것일 수 있다. 인스펙팅되는 디바이스들은, 사이즈 및 형상 양측 모두에 있어서 상당히 복잡할 수 있다. 인스펙션을 행하기 위해 카메라를 이용하는 경우, 결함이 위치된 곳을 추적하는 것을 놓치기가 꽤 쉽다. 결함들은, 흠(scar)들, 균열(crack)들, 얼룩(stain)들, 및 다른 결함들을 포함할 수 있다. 또한, 어떠한 가시적인 결함도 갖지 않는 디바이스의 수행을 인스펙팅할 수 있다.
복수의 카메라들(812 및 814)이, 인스펙션을 수행하기 위해, 인스펙팅되는 디바이스(810) 내부에서 이동된다. 카메라들(812 및 814)은 이동가능, 제어가능 작동기(816) 상에 장착된다. 본 발명의 양상에 따르면, 작동기(816)는 제 1 아암(818) 및 제 2 아암(820)을 포함한다.
2개의 카메라들(812 및 814)이 예시되지만, 단일 카메라가 이용될 수 있다. 대안적으로, 2개보다 많은 수의 카메라들이 또한 이용될 수 있다.
제 1 아암(818)은 화살표(822)에 의해 표시되는 방향을 따라 제어가능하게 이동될 수 있다. 따라서, 카메라들(812 및 814)은, 인스펙션을 수행하기 위해, 인스펙팅되는 디바이스(810)의 중심을 통과하여 이동될 수 있다.
제 2 아암(820)은 화살표(824)에 의해 표시되는 방향으로 회전될 수 있다. 제 2 아암(820)은 또한, 도면 안팎으로 회전될 수 있다. 따라서, 제어가능 이동가능 작동기(816)는 다수의 자유도들을 갖는다. 작동기(816)가 방향(822)을 따라 이동함에 따라, 제 2 아암(820)은, 인스펙팅되는 디바이스(810)의 모든 내부 섹션들을 검사하기 위해 회전될 수 있다.
본 발명의 다른 양상에 따르면, 송신 회로가, 작동기(816) 위치 및 배향을, 인터페이스(828)를 통해 컴퓨팅 디바이스(826)에 통신하기 위해 작동기(816)에 부착된다. 송신 회로는 또한, 카메라들(812 및 814)의 물리적 특징들 모두를 컴퓨팅 디바이스(826)에 전송할 수 있다. 이러한 방식으로, 컴퓨팅 디바이스(826)는, 카메라들(812 및 814)이 디바이스(810) 상에서 무엇을 보고 있는지를 알고, 컴퓨팅 디바이스(826)는 카메라들(812 및 814)의 특징들을 이해한다.
본 발명의 양상에 따라 디바이스들을 인스펙팅하기 위한 시스템이 추가로 도 9에 예시된다. 인스펙팅될 디바이스(930)가 예시된다. 디바이스는 통상적으로 가스 터빈 기계와 같은 복잡한 디바이스이다.
시스템은 복수의 카메라들(932 및 934)을 포함한다. 앞서와 같이, 2개의 카메라들이 도시되지만, 2개보다 많은 수의 카메라들이 활용될 수 있다. 본 발명의 다른 양상들에 따르면, 단일 카메라가 이용될 수 있다. 이용되는 카메라들의 유형들은 복잡한 디바이스의 인스펙션을 수행하기 위해 이용되는 표준 산업 카메라들이다.
카메라들(932 및 934) 각각이 작동기(936 및 938)에 각각 부착된다. 본 발명의 양상에 따르면, 작동기들(936 및 938)은 다수의 부분들을 포함하는 단일 구조의 부분이다. 대안적으로, 각각의 작동기(936 및 938)는 개별 작동기 구조들일 수 있다. 작동기들(936 및 938)은 복수의 카메라들(932 및 934) 각각에 대해 다수의 자유도들을 제공한다. 이러한 방식으로, 카메라들(932 및 934)은, 인스펙팅되는 디바이스 상의 임의의 원하는 위치를 가리킬 수 있다.
작동기들은 인터페이스(942)를 통해 컴퓨팅 디바이스(940)에 의해 제어될 수 있다. 컴퓨팅 디바이스는, 개인용 컴퓨터, 랩톱 또는 심지어 특별하게 설계된 컴퓨터를 포함하는 임의의 유형의 컴퓨팅 디바이스일 수 있다. 인스펙팅되는 디바이스에 관한 작동기들(936 및 938)의 위치 및 배향은, 컴퓨팅 디바이스(920)의 부분인 사용자 인터페이스에 의해 제어된다. 이용될 수 있는 사용자 인터페이스들은 마우스, 키보드, 키패드, 터치 스크린, 및 조이스틱을 포함한다. 이들은 컴퓨팅 디바이스의 부분으로서 제공된다.
시스템은 복수의 카메라들(932 및 934) 각각에 연결된 하나 또는 둘 이상의 디스플레이들(944)을 포함한다. 본 발명의 일 실시예에서, 카메라들(932 및 934) 각각은 디스플레이(944)에 연결된다. 본 발명의 다른 양상에 따르면, 하나의 카메라가 하나의 디스플레이에 개별적으로 연결될 수 있다.
인스펙팅될 수 있는 복수의 디바이스들의 하나 또는 둘 이상의 CAD 모델들이 메모리(948)에 저장된다. 메모리(948)는, 컴퓨팅 디바이스(940)에 의해 원격 방식으로 액세스되는 원격 서버의 부분일 수 있다. 메모리(948)는 인스펙팅되는 디바이스(930)의 CAD 모델을 포함한다.
컴퓨팅 디바이스(940)는 인스펙팅되는 디바이스의 CAD 모델로부터, 인스펙팅되는 디바이스의 가상 이미지를 렌더링한다. 이는, openGL과 같은 공개적으로 이용가능한 소프트웨어를 이용하여 수행될 수 있다. 컴퓨팅 디바이스(940)는 인스펙팅되는 전체 디바이스의 전체 가상 이미지를 렌더링할 수 있거나, 또는 시간을 절약하기 위해, 인스펙팅되는 디바이스의 섹션들의 가상 이미지를 렌더링할 수 있다.
카메라들(932 및 934)의 위치 및 배향은, 인스펙팅되는 디바이스의 이미지들을 획득하기 위해, 컴퓨팅 디바이스(940) 상의 사용자 인터페이스로부터 제어된다. 본 발명의 양상에 따르면, 인스펙팅되는 디바이스로부터의 이미지들 및 렌더링된 가상 이미지가 동시에 디스플레이된다.
도 10은 컴퓨팅 디바이스(1040)에 의해 디스플레이된 윈도우(1050)를 예시한다. 이미지들(1050 및 1052)은 인스펙팅되는 디바이스로부터의 라이브 이미지들이다. 흠들, 균열들, 탈색(decoloration) 등과 같은 결함들이 존재하는 경우, 그러한 결함들이 상기 이미지들(1050 및 1052)에 나타날 것이다. 그러나, 단순히 이들 이미지들을 검사하는 것은, 인스펙터가, 인스펙팅되는 디바이스의 상기 결함들의 위치들에 관하여 확신하지 못하는 것을 초래할 수 있다. 인스펙터는 또한, 인스펙팅되는 디바이스의 성질(nature), 및 실제로 결함이 존재하는지에 관하여 확신하지 못할 수 있다.
따라서, 본 발명은 또한, 라이브 이미지들과 관련된, 렌더링된 가상 이미지들을 이미지들(1058 및 1056)로서 디스플레이한다. 따라서, 라이브 이미지(1052)는 렌더링된 가상 이미지(1058)와 관련된다. 또한, 라이브 이미지(1054)는 렌더링된 가상 이미지(1056)와 관련된다.
일반적으로, 가상 이미지들은, 주어진 가상 카메라 위치들 및 내부 특징들과 함께 CAD 모델로부터 렌더링된다. 가상 이미지와 라이브 이미지 사이의 상관을 확립하기 위해, 가상 카메라는 라이브 카메라와 동일한 위치 및 내부 특징들을 가져야 한다. 내부 캘리브레이션 프로세스는 라이브 카메라의 내부 특징들을 추정한다. 외부 캘리브레이션 프로세스 후에, 임의의 시간에, CAD 모델과 관련된 라이브 카메라의 위치가, 작동기 위치관련 판독(positional reading)들로부터 계산된다.
일단 라이브 카메라들의 위치관련 및 내부 파라미터들이 획득되면, 이들은, OpenGL과 같은 컴퓨터 그래픽 기술들을 이용하여 CAD 모델로부터 가상 이미지(1056 또는 1058)를 렌더링하기 위해 가상 카메라들에 의해 이용된다. 가상 이미지 및 라이브 이미지는 유사한 구조들, 이를 테면 라이브 이미지(1054) 및 가상 이미지(1056)의 상부 중앙에서의 구멍(hole)을 보여준다.
따라서, 본 발명의 양상들은, 인스펙팅되는 디바이스의 라이브 이미지가, 렌더링된 가상 이미지와 함께 디스플레이되는 것을 허용한다. 본 발명의 양상에 따르면, 라이브 이미지(1054)가, 렌더링된 가상 이미지(1056) 가까이 디스플레이된다. 이미지들은 사이드 바이 사이드(side by side)로 디스플레이될 수 있다. 이는, 인스펙션 하의 디바이스의 결함들이 더욱 용이하게 식별되는 것을 허용하는데, 그 이유는 인스펙터가, 이용되었던 인스펙팅되는 디바이스의 이미지를 검사하는 동안, 디바이스의 이용되지 않은 상태의 디바이스의 모델을 뷰잉할 수 있기 때문이다.
부가적으로 또는 대안적으로, 라이브 비디오 이미지(1052)는 윈도우(1060)에서 렌더링된 가상 이미지(1062)의 더 큰 버전 상에 이미지(1064)로서 오버레이될 수 있다. 이는 위치를 상관시킴으로써 행해진다.
컴퓨팅 디바이스는 카메라들의 위치 및 배향을 아는데, 그 이유는 작동기가 그의 위치를 컴퓨팅 디바이스에 리포팅하기 때문이다. 또한, 카메라들의 필요한 물리적 특징들이 작동기 인터페이스를 통해 컴퓨팅 디바이스에 전송될 수 있다. 대안적으로, 카메라들의 물리적 특징들이 메모리에 저장되어, 필요할 때 컴퓨팅 디바이스에 의해 액세스될 수 있다. 컴퓨팅 디바이스는, 렌더링된 가상 이미지(1062) 상에 라이브 이미지들(1064 및 1066)을 위치시키기 위해 이러한 정보를 이용한다.
도 10에 도시된 바와 같이, 다수의 이미지들(1064 및 1066)이, 인스펙션 하의 디바이스의 렌더링된 가상 이미지(1062) 상에 오버레이될 수 있다.
디스플레이(1060)는, 인스펙터가, 이미지의, 그리고 라이브 이미지들(1052 및 1054)에 위치된 임의의 결함의 위치를 용이하게 식별하는 것을 돕는다.
본 발명의 인스펙션 스테이션은 상이한 모드들에서 이용될 수 있다. 제 1 모드에서, 인스펙팅되는 디바이스의 실시간 인스펙션으로부터 발생하는 라이브 이미지들이 컴퓨팅 디바이스에 공급된다. 이러한 경우, 컴퓨팅 디바이스는 상술된 단계들을 실시간으로 수행하고, 작동기들, 결국 카메라들의 위치를 제어하기 위해 이용될 수 있다.
본 발명의 다른 양상에 따르면, 디바이스의 이미지들이 카메라들 및 이동가능 제어가능 작동기들을 이용하여 발생되어, 그러한 이미지들이 메모리에 저장될 수 있다. 분석을 위한 시간이 되어갈 때, 이미지들은 컴퓨팅 디바이스에 의해 액세스가능한 메모리에 저장된다.
앞서와 같이, 컴퓨팅 디바이스는 인스펙팅되는 디바이스의 CAD 모델에 액세스한다. 컴퓨팅 디바이스는 예를 들어, openGL을 이용하여 CAD 모델로부터, 인스펙팅되는 디바이스의 가상 이미지를 렌더링한다. 그 다음으로, 컴퓨팅 디바이스는, 라이브 이미지들 중 하나 또는 둘 이상이, 렌더링된 가상 이미지와 동시에 디스플레이되도록 초래한다.
라이브 이미지들 및 렌더링된 가상 이미지의 디스플레이는 사이드-바이-사이드 또는 상술된 바와 같은 오버레이 방식 중 어느 하나, 또는 양측 모두이다. 사이드 바이 사이드 디스플레이 및 오버레이 디스플레이가 도 10에 도시된다.
인스펙팅되는 디바이스는, 인스펙션 이전에, 카메라들/작동기들에 알려진 위치에 배열된다. 이는, 컴퓨팅 디바이스가 이미지들을, 디바이스의 CAD 모델의 적합한 섹션에 관련시키는 것을 허용한다. 이는 캘리브레이션으로 지칭된다. 캘리브레이션은 수동으로 수행될 수 있고, 캘리브레이션의 세부사항들이 컴퓨팅 디바이스에 리포팅될 수 있다.
본 발명의 바람직한 실시예들이 적용되었던 바와 같은 본 발명의 근본적인 신규한 피쳐들이 도시되고, 기술되고, 지시되었지만, 예시된 방법들 및 시스템들의 형태 및 세부사항들에 있어서의 그리고 그것의 동작에 있어서의 다양한 생략들 및 대체들 및 변경들이, 본 발명의 사상으로부터 벗어남이 없이, 당업자들에 의해 이루어질 수 있다는 것이 이해될 것이다. 그러므로, 본 발명은 단지, 청구항들의 범주에 의해 표시되는 바와 같이만 한정될 것이다.

Claims (20)

  1. 인스펙션 컴퓨터 및 카메라를 이용하여 터빈을 인스펙팅하기 위한 방법으로서,
    무선 모바일 디바이스를 이용하여, 상기 인스펙션 컴퓨터와의 무선 연결성(connectivity)을 확립하는 단계;
    상기 무선 모바일 디바이스를 이용하여, 상기 터빈의 이미지들의 관심 스트림(stream of interest) 및 상기 관심 스트림 내의 관심 구역(region of interest)을 선택하는 단계;
    상기 무선 모바일 디바이스가, 상기 인스펙션 컴퓨터로부터 상기 관심 스트림 및 상기 관심 구역을 요청하고, 그 다음으로 상기 인스펙션 컴퓨터로부터 상기 관심 스트림의 상기 관심 구역을 나타내는 이미지들을 수신하는 단계; 및
    상기 무선 모바일 디바이스가 상기 관심 구역을 디스플레이하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  2. 제 1 항에 있어서,
    복수의 관심 스트림들의 리스트가 상기 모바일 무선 디바이스 상에 디스플레이되고,
    상기 관심 스트림이 상기 리스트로부터 선택되고,
    상기 인스펙션 컴퓨터로부터 수신된 상기 관심 구역이 상기 인스펙션 컴퓨터에 연결된 메모리로부터 리트리빙(retrieve)되는,
    터빈을 인스펙팅하기 위한 방법.
  3. 제 1 항에 있어서,
    복수의 관심 스트림들의 리스트가 상기 모바일 무선 디바이스 상에 디스플레이되고,
    상기 관심 스트림이 상기 리스트로부터 선택되고,
    상기 인스펙션 컴퓨터로부터 수신된 상기 관심 구역이 상기 인스펙션 컴퓨터에 연결된 상기 카메라로부터 리트리빙되는,
    터빈을 인스펙팅하기 위한 방법.
  4. 제 1 항에 있어서,
    상기 무선 모바일 디바이스는, 상기 관심 이미지 스트림에 대해, 초당 프레임(frame per second) 파라미터를 선택하고,
    상기 인스펙션 컴퓨터는 상기 선택된 초당 프레임에 따라, 상기 관심 이미지 스트림을 상기 무선 모바일 디바이스에 전송하는,
    터빈을 인스펙팅하기 위한 방법.
  5. 제 4 항에 있어서,
    상기 선택된 초당 프레임은 초당 30개의 프레임들 미만인,
    터빈을 인스펙팅하기 위한 방법.
  6. 제 1 항에 있어서,
    상기 무선 모바일 디바이스가 프로브(probe) 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 상기 프로브 제어 신호들을 프로세싱하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  7. 제 1 항에 있어서,
    상기 무선 모바일 디바이스가 카메라 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 상기 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 상기 카메라 제어 신호들을 프로세싱하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  8. 제 1 항에 있어서,
    상기 무선 모바일 디바이스가 트리거 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 상기 트리거 제어 신호들을 프로세싱하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  9. 제 1 항에 있어서,
    상기 무선 모바일 디바이스가,
    프로브 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 상기 프로브 제어 신호들을 프로세싱하는 단계;
    카메라 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 상기 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 상기 카메라 제어 신호들을 프로세싱하는 단계; 및
    트리거 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 상기 트리거 제어 신호들을 프로세싱하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  10. 제 1 항에 있어서,
    상기 무선 모바일 디바이스가,
    관심 구역의 상기 터빈의 모델 및 상기 관심 구역의 상기 터빈의 이미지에 대한 요청을 상기 인스펙션 컴퓨터에 전송하는 단계;
    상기 관심 구역의 상기 터빈의 모델 및 상기 터빈의 이미지를 상기 인스펙션 컴퓨터로부터 수신하는 단계; 및
    상기 관심 구역의 상기 터빈의 모델 및 상기 터빈의 이미지를 상기 무선 모바일 디바이스 상에 디스플레이하는 단계
    를 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  11. 제 1 항에 있어서,
    상기 인스펙션 컴퓨터가, 상기 무선 모바일 디바이스에 관한 송신 품질에 따르는 프레임 레이트로, 상기 이미지들의 관심 스트림 내의 상기 관심 구역을 전송하는 단계
    를 더 포함하는,
    터빈을 인스펙팅하기 위한 방법.
  12. 인스펙션 컴퓨터 및 카메라를 이용하여 터빈을 인스펙팅하는 시스템으로서,
    상기 인스펙션 컴퓨터와의 무선 연결성을 확립하도록 인에이블된 무선 모바일 디바이스
    를 포함하고,
    상기 무선 모바일 디바이스는,
    상기 터빈의 이미지들의 관심 스트림 및 상기 관심 스트림 내의 관심 구역을 선택하는 단계,
    상기 인스펙션 컴퓨터로부터 상기 관심 스트림 및 상기 관심 구역을 요청하고, 그 다음으로 상기 인스펙션 컴퓨터로부터 상기 관심 스트림의 상기 관심 구역을 나타내는 이미지들을 수신하는 단계, 및
    상기 관심 구역을 디스플레이 상에 디스플레이하는 단계
    를 수행하는 명령들을 실행시키도록 인에이블된 프로세서를 포함하는,
    터빈을 인스펙팅하는 시스템.
  13. 제 12 항에 있어서,
    복수의 관심 스트림들의 리스트가 상기 모바일 무선 디바이스 상에 디스플레이되고,
    상기 관심 스트림이 상기 리스트로부터 선택되고,
    상기 인스펙션 컴퓨터로부터 수신된 상기 관심 구역이 상기 인스펙션 컴퓨터에 연결된 메모리로부터 리트리빙되는,
    터빈을 인스펙팅하는 시스템.
  14. 제 12 항에 있어서,
    복수의 관심 스트림들의 리스트가 상기 모바일 무선 디바이스 상에 디스플레이되고,
    상기 관심 스트림이 상기 리스트로부터 선택되고,
    상기 인스펙션 컴퓨터로부터 수신된 상기 관심 구역이 상기 인스펙션 컴퓨터에 연결된 상기 카메라로부터 리트리빙되는,
    터빈을 인스펙팅하는 시스템.
  15. 제 12 항에 있어서,
    상기 무선 모바일 디바이스는, 상기 관심 이미지 스트림에 대해, 초당 프레임 파라미터를 선택하고,
    상기 인스펙션 컴퓨터는 상기 선택된 초당 프레임에 따라, 상기 관심 이미지 스트림을 상기 무선 모바일 디바이스에 전송하는,
    터빈을 인스펙팅하는 시스템.
  16. 제 15 항에 있어서,
    상기 선택된 초당 프레임은 초당 30개의 프레임들 미만인,
    터빈을 인스펙팅하는 시스템.
  17. 제 12 항에 있어서,
    상기 무선 모바일 디바이스가 프로브 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 프로브를 제어할 프로세싱된 프로브 제어 신호들을 전송하기 위해 상기 프로브 제어 신호들을 프로세싱하는 것
    을 포함하는,
    터빈을 인스펙팅하는 시스템.
  18. 제 12 항에 있어서,
    상기 무선 모바일 디바이스가 카메라 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 상기 카메라를 제어할 프로세싱된 카메라 제어 신호들을 전송하기 위해 상기 카메라 제어 신호들을 프로세싱하는 것
    을 포함하는,
    터빈을 인스펙팅하는 시스템.
  19. 제 12 항에 있어서,
    상기 무선 모바일 디바이스가 트리거 제어 신호들을 상기 인스펙션 컴퓨터에 전송하고, 상기 인스펙션 컴퓨터가 트리거 보드를 제어할 프로세싱된 트리거 제어 신호들을 전송하기 위해 상기 트리거 제어 신호들을 프로세싱하는 것
    을 포함하는,
    터빈을 인스펙팅하는 시스템.
  20. 제 12 항에 있어서,
    상기 인스펙션 컴퓨터가, 상기 무선 모바일 디바이스에 관한 송신 품질에 따르는 프레임 레이트로, 상기 이미지들의 관심 스트림 내의 상기 관심 구역을 전송하는 것
    을 더 포함하는,
    터빈을 인스펙팅하는 시스템.
KR20147010716A 2011-09-22 2012-09-18 핸즈 프리 인스펙션을 위한 시스템들 및 방법들 KR20140062174A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161537642P 2011-09-22 2011-09-22
US61/537,642 2011-09-22
US13/617,801 2012-09-14
US13/617,801 US9058520B2 (en) 2011-09-22 2012-09-14 Systems and methods for hands free inspection
PCT/US2012/055871 WO2013043574A1 (en) 2011-09-22 2012-09-18 Systems and methods for hands free inspection

Publications (1)

Publication Number Publication Date
KR20140062174A true KR20140062174A (ko) 2014-05-22

Family

ID=47074867

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20147010716A KR20140062174A (ko) 2011-09-22 2012-09-18 핸즈 프리 인스펙션을 위한 시스템들 및 방법들

Country Status (7)

Country Link
US (1) US9058520B2 (ko)
EP (1) EP2742341A1 (ko)
JP (1) JP2015500978A (ko)
KR (1) KR20140062174A (ko)
CN (1) CN104185787A (ko)
CA (1) CA2849428A1 (ko)
WO (1) WO2013043574A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014014238A1 (en) 2012-07-17 2014-01-23 Samsung Electronics Co., Ltd. System and method for providing image
AU2014312218A1 (en) * 2013-08-29 2016-02-25 Modustri Llc Detection system
US9366600B2 (en) 2014-07-14 2016-06-14 Siemens Energy, Inc. Linear array to image rotating turbine components
US9970325B2 (en) 2015-04-30 2018-05-15 General Electric Company Jacking assembly for rotor
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US11193820B2 (en) 2017-01-09 2021-12-07 General Electric Company System and method for disposable infrared imaging system
US11397112B2 (en) 2017-01-09 2022-07-26 General Electric Company System and method for monitoring of gas turbine components with infrared system
US10667105B2 (en) 2017-04-24 2020-05-26 Pilot Inc. Bluetooth enabled snake cam
US20190141236A1 (en) * 2017-11-06 2019-05-09 Fluke Corporation Inspection workflow using ojbect recognition and other techniques
JP7312864B2 (ja) * 2019-06-11 2023-07-21 スクリーニング・イーグル・ドリームラボ・プライベート・リミテッド 対象物、特に建造物を検査するための構成および方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4742227A (en) 1985-05-29 1988-05-03 Mitsubishi Denki Kabushiki Kaisha Mobile type inspection apparatus
US4811091A (en) 1987-09-02 1989-03-07 Westinghouse Electric Corp. Multi-directional mobile inspection system
JP4445598B2 (ja) * 1999-03-19 2010-04-07 オリンパス株式会社 内視鏡カメラ視野制御システム
JP2001275101A (ja) * 2000-03-24 2001-10-05 Sanyo Electric Co Ltd 携帯型端末装置及び放送装置並びに情報提供システム
US6487922B1 (en) 2000-09-25 2002-12-03 Siemens Westinghouse Power Corporation Steam turbine inlet sleeve inspection apparatus and method
EP1313320A1 (fr) * 2001-11-13 2003-05-21 Koninklijke Philips Electronics N.V. Système pour transmettre des flux vidéo relatifs à un évènement à des spectateurs assistant physiquement audit évènement
JP2003250117A (ja) * 2002-02-22 2003-09-05 Ricoh Co Ltd 映像配信サーバ
US7252633B2 (en) * 2002-10-18 2007-08-07 Olympus Corporation Remote controllable endoscope system
JP2004191911A (ja) * 2002-10-18 2004-07-08 Olympus Corp 内視鏡制御システム
US20050091311A1 (en) * 2003-07-29 2005-04-28 Lund Christopher D. Method and apparatus for distributing multimedia to remote clients
JP2005173336A (ja) * 2003-12-12 2005-06-30 Olympus Corp 工業用内視鏡装置及びこれを用いた形状寸法測定方法
JP4661512B2 (ja) 2004-11-05 2011-03-30 株式会社日立製作所 遠隔メンテナンスシステム,モニタリングセンター計算機及びメンテナンス指示方法
US7075296B2 (en) * 2004-11-09 2006-07-11 Siemens Power Generation, Inc. Inspection carriage for turbine blades
JP2006175215A (ja) * 2004-11-24 2006-07-06 Olympus Corp 内視鏡制御システム
US7903140B2 (en) 2005-06-29 2011-03-08 Siemens Energy, Inc. Illuminated inspection apparatus and method of employing the same
US7689003B2 (en) 2006-03-20 2010-03-30 Siemens Energy, Inc. Combined 2D and 3D nondestructive examination
US8244025B2 (en) 2006-03-20 2012-08-14 Siemens Energy, Inc. Method of coalescing information about inspected objects
CN101242474A (zh) * 2007-02-09 2008-08-13 中国科学院计算技术研究所 一种照片在小尺寸屏幕设备上的动态视频浏览方法
JP2008284037A (ja) * 2007-05-15 2008-11-27 Olympus Corp 内視鏡装置
US8485038B2 (en) 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
US7715943B2 (en) 2008-03-07 2010-05-11 United Technologies Corporation Microserver for managing an assembly or repair of a product
FR2945630B1 (fr) * 2009-05-14 2011-12-30 Airbus France Procede et systeme d'inspection a distance d'une structure
US8281442B2 (en) * 2009-07-17 2012-10-09 General Electric Company Wind turbine blade inspection and cleaning system
US8537215B2 (en) * 2009-11-30 2013-09-17 Corning Incorporated Multi-camera skin inspection system for extruded ceramic honeycomb structures
US9494532B2 (en) * 2010-09-24 2016-11-15 Siemens Energy, Inc. System and method for side-by-side inspection of a device
CN201828917U (zh) * 2010-10-20 2011-05-11 江苏大学 一种手持式医学影像阅读装置

Also Published As

Publication number Publication date
US20130083187A1 (en) 2013-04-04
EP2742341A1 (en) 2014-06-18
US9058520B2 (en) 2015-06-16
JP2015500978A (ja) 2015-01-08
WO2013043574A1 (en) 2013-03-28
CN104185787A (zh) 2014-12-03
CA2849428A1 (en) 2013-03-28

Similar Documents

Publication Publication Date Title
US9058520B2 (en) Systems and methods for hands free inspection
US9494532B2 (en) System and method for side-by-side inspection of a device
JP6706068B2 (ja) 非破壊試験システムの仮想制御ためのシステムおよび方法
US20230215294A1 (en) Weld Training Systems to Synchronize Weld Data for Presentation
US8903317B2 (en) System and method for controlling an infrared camera using a mobile phone
EP2939225B1 (en) Systems and methods for control of a non-destructive testing system
JP6705651B2 (ja) 非破壊検査システムの遠隔制御のためのシステムおよび方法
WO2014188798A1 (ja) 表示制御装置、表示制御方法および記録媒体
CN106227329A (zh) 信息处理装置、信息处理方法及系统
WO2014188797A1 (ja) 表示制御装置、表示制御方法および記録媒体
JP2014209196A (ja) 非破壊試験検査デバイスのモバイルデバイスクレードルおよびチューブグリッパのためのシステム
JP2021005409A (ja) 自動装置ペアリングのためのシステム及び方法
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
JP2013084029A (ja) 表示制御装置
US20180188519A1 (en) Virtual Slide Stage (VSS) Method For Viewing Whole Slide Images
JP2018163651A (ja) 自動ドアセンサの検知エリアの提示方法および提示装置ならびに提示システム
JP2017017503A (ja) 情報処理装置、情報処理方法
JPWO2021199230A5 (ja) 遠隔監視制御装置、システム、方法、及びプログラム
JP5266416B1 (ja) テストシステム及びテストプログラム
Marques et al. An augmented reality framework for supporting technicians during maintenance procedures
KR20140008659A (ko) 로봇을 모니터링하는 교시조작 시스템 및 교시조작 방법
WO2022126375A1 (zh) 变焦方法、成像装置、云台以及可移动平台
CN116901093A (zh) 智能3d相机、交互设备和智能控制系统
KR20140137148A (ko) 단일 카메라를 이용한 3차원 입력장치 및 방법
SE1500055A1 (sv) Method and data presenting device for facilitating work at an industrial site assisted by a remote user and a process control system

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid