JP2016529473A - Detector for optically detecting at least one object - Google Patents

Detector for optically detecting at least one object Download PDF

Info

Publication number
JP2016529473A
JP2016529473A JP2016518930A JP2016518930A JP2016529473A JP 2016529473 A JP2016529473 A JP 2016529473A JP 2016518930 A JP2016518930 A JP 2016518930A JP 2016518930 A JP2016518930 A JP 2016518930A JP 2016529473 A JP2016529473 A JP 2016529473A
Authority
JP
Japan
Prior art keywords
detector
intensity distribution
optical sensor
function
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016518930A
Other languages
Japanese (ja)
Inventor
ゼント ローベアト
ゼント ローベアト
ブルーダー イングマー
ブルーダー イングマー
イアレ シュテファン
イアレ シュテファン
ティール エアヴィン
ティール エアヴィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BASF SE
Original Assignee
BASF SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BASF SE filed Critical BASF SE
Publication of JP2016529473A publication Critical patent/JP2016529473A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Microscoopes, Condenser (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

少なくとも1つの物体(118)の位置を決定する検出器(110)を開示する。この検出器(110)は、少なくとも1つの光学センサ(112)であって、物体(118)から該検出器(110)へと進む光線(150)を検出するように構成され、画素(154)の少なくとも1つのマトリクス(152)を有する、光学センサ(112)と、少なくとも1つの評価装置(126)であって、光線(150)により照射された光学センサ(112)の画素(154)の強度分布を決定するように構成され、該強度分布を用いることにより、物体(118)の少なくとも1つの縦方向座標を決定するようにさらに構成された、評価装置(126)と、を備える。A detector (110) for determining the position of at least one object (118) is disclosed. The detector (110) is at least one optical sensor (112) configured to detect light rays (150) traveling from the object (118) to the detector (110), and the pixels (154) The intensity of the pixel (154) of the optical sensor (112) illuminated by the light beam (150), the optical sensor (112) having at least one matrix (152) And an evaluation device (126) configured to determine a distribution and further configured to determine at least one longitudinal coordinate of the object (118) by using the intensity distribution.

Description

本発明は、先の欧州特許出願第13171901.5号明細書に基づき、その全内容を本明細書中に援用する。本発明は、少なくとも1つの物体の位置を決定する検出器、検出システム、および方法に関する。さらに、本発明は、ユーザと機械との間で少なくとも1つの情報を交換するマンマシンインターフェース、娯楽装置、追跡システム、カメラ、および検出装置のさまざまな使用に関する。本発明に係る装置、システム、方法、および使用は特に、たとえば日常生活、ゲーム、交通技術、生産技術、セキュリティ技術、芸術、記録、または技術目的のデジタル写真またはビデオ写真等の写真撮影、医療技術のさまざまな分野または科学分野において採用可能である。ただし、他の用途についても可能である。   The present invention is based on the previous European Patent Application No. 13171901.5, the entire contents of which are incorporated herein. The present invention relates to a detector, a detection system, and a method for determining the position of at least one object. The invention further relates to various uses of man-machine interfaces, entertainment devices, tracking systems, cameras, and detection devices for exchanging at least one information between a user and a machine. The apparatus, system, method and use according to the present invention are in particular photography, medical technology such as digital photography or video photography for everyday life, games, traffic technology, production technology, security technology, art, recording or technical purposes, for example. Can be employed in various fields or scientific fields. However, other uses are possible.

従来技術においては、多くの光学センサおよび光起電装置が知られている。光起電装置は一般的に、紫外光、可視光、または赤外光等の電磁放射を電気信号または電気エネルギーに変換するのに用いられるが、光学検出器は一般的に、画像情報の取得および/または輝度等の少なくとも1つの光学パラメータの検出に用いられる。   Many optical sensors and photovoltaic devices are known in the prior art. Photovoltaic devices are commonly used to convert electromagnetic radiation, such as ultraviolet light, visible light, or infrared light, into electrical signals or energy, while optical detectors are typically used to acquire image information. And / or used to detect at least one optical parameter such as brightness.

従来技術においては、一般的に無機および/または有機センサ材料の使用に基づき得る多くの光学センサが知られている。このようなセンサの例は、米国特許出願第2007/0176165A1号明細書、米国特許第6,995,445B2号明細書、独国特許出願公開第2501124A1号明細書、独国特許出願公開第3225372A1号明細書、またはその他多くの従来技術文献に開示されている。特に、コストおよび大面積処理に関する理由から、たとえば米国特許出願第2007/0176165A1号明細書に記載のように、少なくとも1つの有機センサ材料を含むセンサの使用が広まっている。特に、たとえば国際公開第2009/013282A1号明細書に大略記載されているように、いわゆる色素太陽電池がますます重要となっている。   In the prior art, many optical sensors are known which can generally be based on the use of inorganic and / or organic sensor materials. Examples of such sensors are US Patent Application No. 2007 / 0176165A1, US Pat. No. 6,995,445B2, German Patent Application Publication No. 2501124A1, German Patent Application Publication No. 3225372A1. It is disclosed in the specification or in many other prior art documents. In particular, for reasons relating to cost and large area processing, the use of sensors comprising at least one organic sensor material has become widespread, for example as described in US Patent Application No. 2007 / 0176165A1. In particular, so-called dye solar cells are becoming increasingly important, as generally described in, for example, International Publication No. 2009 / 013282A1.

このような光学センサに基づいて、少なくとも1つの物体を検出する多くの検出器が知られている。このような検出器は、それぞれの使用目的に応じて、さまざまに具現化可能である。このような検出器の例は、カメラおよび/または顕微鏡等の撮像装置である。たとえば、特に医療技術および生物学の分野において、高い光学的分解能で生物サンプルを調べるのに使用可能な高分解能共焦点顕微鏡が知られている。少なくとも1つの物体を光学的に検出する検出器の別の例として、たとえばレーザパルス等の対応する光信号の伝搬時間法に基づく測距装置がある。物体を光学的に検出する検出器のさらに別の例として、同様に測距を実施可能な三角測量システムがある。   Many detectors are known that detect at least one object based on such optical sensors. Such a detector can be implemented in various ways depending on the intended use. Examples of such detectors are imaging devices such as cameras and / or microscopes. For example, high resolution confocal microscopes are known that can be used to examine biological samples with high optical resolution, particularly in the fields of medical technology and biology. Another example of a detector that optically detects at least one object is a distance measuring device based on the propagation time method of a corresponding optical signal, such as a laser pulse. As another example of a detector that optically detects an object, there is a triangulation system that can similarly perform distance measurement.

米国特許出願第2007/0080925A1号明細書には、低消費電力の表示装置が開示されている。ここでは、電気エネルギーに応答して表示装置による情報表示を可能にするとともに、入射放射線に応答して電気エネルギーを生成する光活性層が利用されている。単一の表示装置の表示画素は、表示用の画素および発電用の画素に分割されていてもよい。表示用の画素が情報を表示するようになっていてもよく、発電用の画素が電気エネルギーを生成するようになっていてもよい。生成された電気エネルギーを用いて、画像を駆動する電力が提供されるようになっていてもよい。   US Patent Application No. 2007 / 0080925A1 discloses a display device with low power consumption. Here, a photoactive layer that enables display of information by a display device in response to electric energy and generates electric energy in response to incident radiation is used. The display pixel of a single display device may be divided into a display pixel and a power generation pixel. The display pixels may display information, and the power generation pixels may generate electrical energy. The generated electrical energy may be used to provide power to drive the image.

欧州特許出願第1667246A1号明細書には、同じ空間位置で電磁放射の2つ以上のスペクトル帯を検知可能なセンサ要素が開示されている。この要素は、電磁放射の異なるスペクトル帯をそれぞれ検知可能な部分要素のスタックから成る。部分要素はそれぞれ、非シリコン半導体を含み、各部分要素の非シリコン半導体は、電磁放射の異なるスペクトル帯に反応するものおよび/または反応するように増感されたものである。   European Patent Application No. 1667246A1 discloses a sensor element capable of detecting two or more spectral bands of electromagnetic radiation at the same spatial position. This element consists of a stack of subelements each capable of detecting different spectral bands of electromagnetic radiation. Each subelement includes a non-silicon semiconductor, and the non-silicon semiconductor of each subelement is responsive and / or sensitized to respond to a different spectral band of electromagnetic radiation.

国際公開第2012/110924A1号明細書においては、少なくとも1つの物体を光学的に検出する検出器が提案されており、その内容を本明細書中に援用する。この検出器は、少なくとも1つの光学センサを備える。光学センサは、少なくとも1つのセンサ領域を有する。また、光学センサは、センサ領域の照射に応じて少なくとも1つのセンサ信号を生成するように設計されている。センサ信号は、照射の総パワーが同じであるものと仮定すると、照射の形状、特に、センサエリア上の照射のビーム断面によって決まる。検出器は、少なくとも1つの評価装置をさらに有する。評価装置は、センサ信号から少なくとも1つの形状情報、特に、照射および/または物体に関する少なくとも1つの形状情報を生成するように設計されている。   In WO 2012/110924 A1, a detector for optically detecting at least one object is proposed, the contents of which are incorporated herein. The detector comprises at least one optical sensor. The optical sensor has at least one sensor area. The optical sensor is also designed to generate at least one sensor signal in response to illumination of the sensor area. The sensor signal depends on the shape of the illumination, in particular the beam cross-section of the illumination on the sensor area, assuming that the total power of illumination is the same. The detector further comprises at least one evaluation device. The evaluation device is designed to generate at least one shape information from the sensor signal, in particular at least one shape information about the illumination and / or the object.

2012年12月19日に出願された米国仮特許出願第61/739,173号明細書、2013年1月8日に出願された米国仮特許出願第61/749,964号明細書、2013年8月19日に出願された米国仮特許出願第61/867,169号明細書、および2013年12月18日に出願された国際特許出願第PCT/IB2013/061095号明細書は、少なくとも1つの横方向光学センサおよび少なくとも1つの光学センサを用いることによって、少なくとも1つの物体の位置を決定する方法および検出器を開示しており、これらすべての全内容を本明細書中に援用する。具体的には、高い精度で明確に物体の縦方向位置を決定するために、センサスタックの使用が開示されている。   US Provisional Patent Application No. 61 / 739,173, filed December 19, 2012, US Provisional Patent Application No. 61 / 749,964, filed January 8, 2013, 2013 US Provisional Patent Application No. 61 / 867,169, filed August 19, and International Patent Application No. PCT / IB2013 / 061095, filed December 18, 2013, have at least one Disclosed are methods and detectors for determining the position of at least one object by using a lateral optical sensor and at least one optical sensor, the entire contents of all of which are incorporated herein. In particular, the use of a sensor stack is disclosed to clearly determine the longitudinal position of an object with high accuracy.

上述の装置および検出器、具体的には国際公開第2012/110924A1号明細書、米国仮特許出願第61/739,173号明細書、および米国仮特許出願第61/749,964号明細書に開示の検出器が示唆する利点にも関わらず、いくつかの技術的課題が依然として存在する。これにより、一般的には、空間中の物体の位置を検出する検出器であって、信頼性が高く、低コストで製造可能なものが求められている。   In the above-described apparatus and detector, specifically in WO2012 / 110924A1, US provisional patent application 61 / 739,173, and US provisional patent application 61 / 749,964. Despite the advantages suggested by the disclosed detectors, several technical challenges still exist. As a result, a detector that detects the position of an object in space and that is highly reliable and can be manufactured at low cost is generally required.

したがって、本発明は、既知の装置および方法に関する上述の技術的課題に対処する装置および方法を提供することを目的とする。具体的に、本発明は、好ましくは少ない技術的努力で、技術的資源およびコストの観点での要件を抑えつつ、空間中の物体の位置を確実に決定可能な装置および方法を提供することを目的とする。   Accordingly, it is an object of the present invention to provide an apparatus and method that addresses the above-described technical challenges associated with known apparatus and methods. Specifically, the present invention provides an apparatus and method that can reliably determine the position of an object in space while reducing requirements in terms of technical resources and costs, preferably with little technical effort. Objective.

この問題は、独立請求項の特徴を有する本発明によって解決される。個別または組み合わせにより実現可能な本発明の有利な変形については、従属請求項ならびに/または以下の明細および詳細な実施形態に提示する。   This problem is solved by the present invention having the features of the independent claims. Advantageous variants of the invention that can be realized individually or in combination are presented in the dependent claims and / or in the following specification and detailed embodiments.

以下で使用するように、用語「有する」、「備える」、「具備する」、またはこれらの任意適当な文法的変異は、非排他的に使用している。したがって、これらの用語は、この背景で説明する実体において、これらの用語が導入する以外の特徴が存在しない状況と、1つまたは複数の別の特徴が存在する状況とを表していてもよい。一例として、表現「AがBを有する」、「AがBを備える」、および「AがBを具備する」は、AにおいてB以外の要素が存在しない状況(すなわち、Aが唯一かつ排他的にBから成る状況)と、要素C、要素CおよびD、または別の要素等、実体AにおいてB以外に1つもしくは複数の別の要素が存在する状況との両方を表していてもよい。   As used below, the terms “having”, “comprising”, “comprising”, or any suitable grammatical variations thereof, are used non-exclusively. Thus, these terms may represent situations in which entities described in this background have no features other than those introduced by these terms and situations in which one or more other features exist. As an example, the expressions “A has B”, “A has B”, and “A has B” are situations where there is no element other than B in A (ie, A is the only and exclusive) And a situation where one or a plurality of other elements other than B exist in entity A, such as element C, elements C and D, or another element.

さらに、特徴または要素が1つまたは2つ以上存在していてもよいことを示す用語「少なくとも1つ」、「1つまたは複数」、または類似の表現は通常、各特徴または要素の導入時に1回だけ用いられることに留意するものとする。以下、ほとんどの場合、各特徴または要素に言及する際には、各特徴または要素が1つまたは2つ以上存在していてもよいという事実にも関わらず、表現「少なくとも1つ」または「1つまたは複数」を繰り返すことはない。   In addition, the term “at least one”, “one or more”, or similar expressions indicating that one or more features or elements may be present are usually 1 at the time of introduction of each feature or element. Note that it is used only once. Hereinafter, in most cases, when referring to each feature or element, the expression “at least one” or “1” despite the fact that one or more of each feature or element may be present. “One or more” is not repeated.

さらに、以下のように、用語「好ましく」、「より好ましく」、「詳細に」、「より詳細に」、「具体的に」、「より具体的に」、または類似の用語は、任意選択的な特徴と併せて、別の可能性を制限することなく使用する。したがって、これらの用語が導入する特徴は、任意選択的な特徴であり、特許請求の範囲を何ら制限するよう意図されるものではない。本発明は、当業者が認識する通り、別の特徴を用いて実施されるようになっていてもよい。同様に、「本発明の一実施形態において」または類似の表現が導入する特徴は、本発明の別の実施形態に関する制限、本発明の範囲に関する制限、およびこのように導入した特徴と本発明の他の任意選択的または非任意選択的な特徴との組み合わせの可能性に関する制限を一切伴うことなく、任意選択的な特徴を意図している。   In addition, the terms “preferred”, “more preferable”, “in detail”, “more in detail”, “specifically”, “more specifically”, or similar terms are optional, as follows: In combination with other features, use it without limiting other possibilities. Accordingly, the features introduced by these terms are optional features and are not intended to limit the scope of the claims in any way. The present invention may be implemented using other features, as those skilled in the art will recognize. Similarly, features introduced by “in one embodiment of the invention” or similar expressions are limitations on another embodiment of the invention, limitations on the scope of the invention, and features so introduced and features of the invention. Optional features are intended without any limitation as to the possibility of combination with other optional or non-optional features.

本発明の第1の態様においては、少なくとも1つの物体の位置を決定する検出器が開示される。本明細書において、位置という用語は、物体および/または該物体の少なくとも一部の空間中での位置および/または方位に関する少なくとも1つの情報を表す。したがって、上記少なくとも1つの情報は、物体の少なくとも1つの点と少なくとも1つの検出器との間の少なくとも1つの距離を示唆していてもよい。より詳しく以下に概説する通り、この距離は、縦方向座標であってもよいし、物体の点の縦方向座標の決定に寄与するものであってもよい。この追加または代替として、物体および/または該物体の少なくとも一部の位置および/または方位に関する1つまたは複数の他の情報が決定されるようになっていてもよい。一例としては、物体および/または該物体の少なくとも一部の少なくとも1つの横方向座標が決定されるようになっていてもよい。このように、物体の位置は、物体および/または該物体の少なくとも一部の少なくとも1つの縦方向座標を示唆していてもよい。この追加または代替として、物体の位置は、物体および/または該物体の少なくとも一部の少なくとも1つの横方向座標を示唆していてもよい。この追加または代替として、物体の位置は、空間中での物体の方位を示す、物体の少なくとも1つの方位情報を示唆していてもよい。   In a first aspect of the invention, a detector for determining the position of at least one object is disclosed. As used herein, the term position represents at least one piece of information regarding an object and / or position and / or orientation in a space of at least a portion of the object. Thus, the at least one information may suggest at least one distance between at least one point of the object and at least one detector. As will be outlined in more detail below, this distance may be a longitudinal coordinate, or it may contribute to the determination of the longitudinal coordinate of the point of the object. In addition or as an alternative, one or more other information relating to the position and / or orientation of the object and / or at least a portion of the object may be determined. As an example, at least one lateral coordinate of the object and / or at least a portion of the object may be determined. Thus, the position of the object may suggest at least one longitudinal coordinate of the object and / or at least a portion of the object. In addition or alternatively, the position of the object may indicate at least one lateral coordinate of the object and / or at least a portion of the object. Alternatively or alternatively, the position of the object may suggest at least one orientation information of the object that indicates the orientation of the object in space.

検出器は、
少なくとも1つの光学センサであり、物体から該検出器へと進む光線を検出するように構成され、画素の少なくとも1つのマトリクスを有する、光学センサと、
少なくとも1つの評価装置であり、光線により照射された光学センサの画素の強度分布を決定するように構成され、該強度分布を用いることにより、物体の少なくとも1つの縦方向座標を決定するようにさらに構成された、評価装置と、
を備える。
The detector
At least one optical sensor, configured to detect light traveling from an object to the detector, and having at least one matrix of pixels;
At least one evaluation device configured to determine an intensity distribution of pixels of the optical sensor illuminated by the light beam, and further using the intensity distribution to determine at least one longitudinal coordinate of the object A configured evaluation device;
Is provided.

本明細書において、光学センサは一般的に、光線が生成する照射および/または光スポットの検出等、光線の検出を行う感光装置を表す。より詳しく以下に概説する通り、光学センサは、物体および/または少なくとも1つの光線が検出器へと進んでいく物体の少なくとも一部等、該物体の少なくとも一部の少なくとも1つの縦方向座標を決定するように構成されていてもよい。   In this specification, an optical sensor generally represents a photosensitive device that detects light, such as irradiation and / or detection of a light spot generated by the light. As outlined in more detail below, the optical sensor determines at least one longitudinal coordinate of at least a portion of the object, such as the object and / or at least a portion of the object through which at least one ray travels to the detector. It may be configured to.

本明細書において、用語「縦方向座標」は一般的に、座標系における座標を表しており、物体の縦方向座標の変化は一般的に、物体と検出器との間の距離の変化を示唆している。これにより、一例として、縦方向座標は、検出器から離れるように延びる座標系の縦軸ならびに/または検出器の光軸と平行および/もしくは同一である座標系の縦軸上の座標であってもよい。したがって、物体の縦方向座標は一般的に、検出器と物体との間の距離を構成するものおよび/または検出器と物体との間の距離に寄与するものであってもよい。   In this specification, the term “longitudinal coordinate” generally refers to a coordinate in the coordinate system, and a change in the vertical coordinate of the object generally implies a change in the distance between the object and the detector. doing. Thus, as an example, the longitudinal coordinates are coordinates on the longitudinal axis of the coordinate system extending away from the detector and / or the longitudinal axis of the coordinate system that is parallel and / or identical to the optical axis of the detector, Also good. Thus, the longitudinal coordinates of the object may generally constitute what constitutes the distance between the detector and the object and / or contribute to the distance between the detector and the object.

同様に、より詳しく以下に概説する通り、横方向座標は単に、上述の座標系の縦軸に垂直な平面における座標を表していてもよい。一例としては、検出器から離れるように縦軸が延び、該縦軸と垂直に2つの横軸が延びたデカルト座標系を使用するようにしてもよい。   Similarly, as outlined in more detail below, the lateral coordinate may simply represent a coordinate in a plane perpendicular to the vertical axis of the coordinate system described above. As an example, a Cartesian coordinate system having a vertical axis extending away from the detector and two horizontal axes extending perpendicular to the vertical axis may be used.

さらに、本明細書において、画素は一般的に、光信号を生成するように構成された光学センサの最小均一単位等、光学センサの感光要素を表す。一例として、各画素は、1μm〜5000000μm、好ましくは100μm〜4000000μm、好ましくは1000μm〜1000000μm、より好ましくは2500μm〜50000μmの感光面積を有していてもよい。さらに、他の実施形態も実現可能である。マトリクスという表現は一般的に、空間中での複数の画素の配置を表しており、線状配置であってもよいし、面状配置であってもよい。したがって、マトリクスは一般的に、好ましくは1次元マトリクスおよび2次元マトリクスから成る群から選択されるようになっていてもよい。一例として、マトリクスは、100〜100000000画素、好ましくは1000〜1000000画素、より好ましくは10000〜500000画素を含んでいてもよい。マトリクスは、行および列に画素が配置された矩形であるのが最も好ましい。 Further, herein, a pixel generally represents a photosensitive element of an optical sensor, such as the smallest uniform unit of an optical sensor configured to generate an optical signal. As an example, each pixel, 1μm 2 ~5000000μm 2, preferably 100μm 2 ~4000000μm 2, preferably 1000μm 2 ~1000000μm 2, more preferably may have a photosensitive area of 2500μm 2 ~50000μm 2. Furthermore, other embodiments are possible. The expression “matrix” generally represents an arrangement of a plurality of pixels in a space, and may be a linear arrangement or a planar arrangement. Thus, the matrix may generally be such that it is preferably selected from the group consisting of a one-dimensional matrix and a two-dimensional matrix. As an example, the matrix may include 100 to 100 million pixels, preferably 1000 to 1000000 pixels, more preferably 10000 to 500000 pixels. Most preferably, the matrix is a rectangle with pixels arranged in rows and columns.

さらに、本発明において、評価装置という用語は一般的に、好ましくは少なくとも1つのデータ処理装置、より好ましくは少なくとも1つのプロセッサを用いて上記動作を行うように構成された任意の装置を表す。これにより、一例として、上記少なくとも1つの評価装置は、多くのコンピュータコマンドを含むソフトウェアコードが格納された少なくとも1つのデータ処理装置を備えていてもよい。   Further, in the present invention, the term evaluation device generally refers to any device that is configured to perform the above operations, preferably using at least one data processing device, more preferably at least one processor. Accordingly, as an example, the at least one evaluation device may include at least one data processing device in which software codes including many computer commands are stored.

光学センサは、画素それぞれの照射強度を示す少なくとも1つの信号を生成するように構成されていてもよい。これにより、一例として、光学センサは、それぞれが各画素の照射強度を示す少なくとも1つの電子信号を画素ごとに生成するように構成されていてもよい。以下、この信号は、画素の強度および/または画素強度とも称する。この信号は、アナログおよび/またはデジタル信号であってもよい。さらに、検出器は、上記少なくとも1つの信号の処理および/または前処理を行う1つもしくは複数のフィルタならびに/またはアナログ−デジタル変換器等、1つまたは複数の信号処理装置を備えていてもよい。   The optical sensor may be configured to generate at least one signal indicating the irradiation intensity of each pixel. Thereby, as an example, the optical sensor may be configured to generate, for each pixel, at least one electronic signal that indicates the irradiation intensity of each pixel. Hereinafter, this signal is also referred to as pixel intensity and / or pixel intensity. This signal may be an analog and / or digital signal. Furthermore, the detector may comprise one or more signal processing devices, such as one or more filters and / or analog-to-digital converters that process and / or preprocess said at least one signal. .

さらに、本明細書において、強度分布は一般的に、光学センサの画素等、該光学センサが各強度値を測定した複数の局所位置の複数の強度値もしくは強度情報、またはこれらの実体を表す。これにより、一例として、強度分布は、強度値または強度情報のマトリクスを含んでいてもよく、マトリクス内の強度値または強度情報の位置は、光学センサ上の局所位置を表す。強度分布は具体的に、光学センサの光軸に垂直な平面における各画素の横方向位置の関数としての強度値を含んでいてもよい。この追加または代替として、強度分布は、マトリクスの画素の画素座標の関数としての強度値を含んでいてもよい。また、この追加または代替として、強度分布は、強度の関数として、特定の強度を有する画素の数#の分布を含んでいてもよい。   Further, in this specification, the intensity distribution generally represents a plurality of intensity values or intensity information of a plurality of local positions where the optical sensor has measured each intensity value, such as pixels of the optical sensor, or an entity thereof. Thereby, as an example, the intensity distribution may include a matrix of intensity values or intensity information, and the position of the intensity value or intensity information in the matrix represents a local position on the optical sensor. Specifically, the intensity distribution may include an intensity value as a function of the lateral position of each pixel in a plane perpendicular to the optical axis of the optical sensor. As an addition or alternative, the intensity distribution may include intensity values as a function of the pixel coordinates of the pixels of the matrix. Alternatively or alternatively, the intensity distribution may include a distribution of the number of pixels # having a particular intensity as a function of intensity.

さらに、本明細書において、強度分布を用いた物体の少なくとも1つの縦方向座標の決定は一般的に、物体の縦方向位置を決定するために強度分布が評価されるという事実を表す。一例として、評価装置は、強度分布と縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成されていてもよい。この所定の関係は、ルックアップテーブル等、評価装置のデータストレージに格納されていてもよい。この追加または代替として、強度分布と縦方向座標との間の所定の関係として、経験的な評価関数を使用するようにしてもよい。   Furthermore, in this specification, the determination of at least one longitudinal coordinate of an object using an intensity distribution generally represents the fact that the intensity distribution is evaluated to determine the longitudinal position of the object. As an example, the evaluation device may be configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the intensity distribution and the longitudinal coordinates. This predetermined relationship may be stored in a data storage of the evaluation device such as a lookup table. As an addition or alternative to this, an empirical evaluation function may be used as the predetermined relationship between the intensity distribution and the longitudinal coordinate.

強度分布は一般的に、ガウス光線による照射の強度分布を近似したものであってもよい。ただし、具体的には非ガウス光線を使用する場合、他の強度分布も可能である。   In general, the intensity distribution may be an approximation of the intensity distribution of irradiation with Gaussian rays. However, specifically, when using non-Gaussian rays, other intensity distributions are possible.

物体の少なくとも1つの縦方向座標を決定するため、評価装置は、単に強度分布と縦方向座標との間の所定の関係を使用することならびに/または1つもしくは複数の評価アルゴリズムを適用することが可能である。具体的に、評価装置は、強度分布を近似した少なくとも1つの強度分布関数を決定するように構成されていてもよい。本明細書において、強度分布関数は一般的に、少なくとも1つの光学センサおよび/またはその一部の実際の強度分布を近似した2次元の関数f(x)または3次元の関数f(x,y)等の数学関数である。このため、強度分布関数は、最小二乗フィッティングといった回帰分析等、1つまたは複数の周知のフィッティングまたは近似アルゴリズムを適用することにより導出されたフィッティング関数であってもよい。これらのフィッティングアルゴリズムは一般的に、当業者には既知である。一例としては、強度分布に対する最良のフィッティングが実現されるように選定された1つまたは複数のパラメータを含む1つまたは複数の所定のフィッティング関数が与えられるようになっていてもよい。   In order to determine at least one longitudinal coordinate of the object, the evaluation device may simply use a predetermined relationship between the intensity distribution and the longitudinal coordinate and / or apply one or more evaluation algorithms. Is possible. Specifically, the evaluation device may be configured to determine at least one intensity distribution function approximating the intensity distribution. In this specification, the intensity distribution function is generally a two-dimensional function f (x) or a three-dimensional function f (x, y) approximating the actual intensity distribution of at least one optical sensor and / or part thereof. ) And other mathematical functions. Thus, the intensity distribution function may be a fitting function derived by applying one or more well-known fitting or approximation algorithms, such as regression analysis such as least square fitting. These fitting algorithms are generally known to those skilled in the art. As an example, one or more predetermined fitting functions may be provided that include one or more parameters selected to achieve the best fitting for the intensity distribution.

上記概説の通り、強度分布関数は、強度分布全体またはその一部を近似したものであってもよい。これにより、一例としては、マトリクスの一領域を使用して評価することにより、3次元の強度分布関数f(x,y)等の強度分布関数を決定するようにしてもよい。この追加または代替として、たとえばマトリクスを通る軸または線に沿った2次元の強度分布関数f(x)を使用するようにしてもよい。一例としては、たとえば最大照射の少なくとも1つの画素を決定することによって、光線による照射の中心を決定するようにしてもよく、この照射の中心を通じて断面軸を選定するようにしてもよい。強度分布関数は、照射の中心を通るこの断面軸に沿う座標の関数として、2次元の強度分布関数を導出するようにしてもよい。また、他の評価アルゴリズムも実現可能である。   As outlined above, the intensity distribution function may approximate the entire intensity distribution or a portion thereof. Thereby, as an example, an intensity distribution function such as a three-dimensional intensity distribution function f (x, y) may be determined by evaluating using one region of the matrix. As an addition or alternative, for example, a two-dimensional intensity distribution function f (x) along an axis or line through the matrix may be used. As an example, for example, the center of irradiation with light rays may be determined by determining at least one pixel of maximum irradiation, and a cross-sectional axis may be selected through the center of irradiation. As the intensity distribution function, a two-dimensional intensity distribution function may be derived as a function of coordinates along the cross-sectional axis passing through the center of irradiation. Other evaluation algorithms can also be realized.

上記概説の通り、評価装置は、縦方向座標と強度分布関数との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成されている。この追加または代替として、具体的には1つまたは複数の強度分布関数を実際の強度分布にフィッティングする場合、強度分布関数から導出された少なくとも1つのパラメータを決定するようにしてもよく、この少なくとも1つのフィッティングパラメータ等の少なくとも1つのパラメータと、物体と検出器との間の距離等の物体の縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するようにしてもよい。   As outlined above, the evaluation device is configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the longitudinal coordinates and the intensity distribution function. As an addition or alternative to this, in particular when fitting one or more intensity distribution functions to an actual intensity distribution, at least one parameter derived from the intensity distribution function may be determined, The vertical coordinate of the object is determined by using a predetermined relationship between at least one parameter such as one fitting parameter and the vertical coordinate of the object such as the distance between the object and the detector. May be.

別の実施形態は、上記少なくとも1つの強度分布関数の性質に関する。具体的に、強度分布関数は、以下においてビーム形状とも称する少なくとも1つの光線の形状を記述した関数であってもよい。したがって、強度分布関数は一般的に、光線のビーム形状関数であってもよいし、光線のビーム形状関数を含んでいてもよい。本明細書において、ビーム形状関数は一般的に、電界および/または光線の強度の空間的分布を記述した数学関数を表す。一例として、ビーム形状関数は、光線の伝搬軸に垂直な平面における光線の強度を記述した関数であってもよく、任意選択として、伝搬軸に沿った位置が付加的な座標であってもよい。ここで、一般的には、任意の種類の座標系を用いて、電界および/または強度の空間的分布を記述するようにしてもよい。ただし、検出器の光軸に垂直な平面における位置を含む座標系を使用するのが好ましい。   Another embodiment relates to the nature of the at least one intensity distribution function. Specifically, the intensity distribution function may be a function describing the shape of at least one light beam, which is also referred to as a beam shape below. Therefore, the intensity distribution function may generally be a beam shape function of a light beam or may include a beam shape function of a light beam. As used herein, a beam shape function generally represents a mathematical function that describes the spatial distribution of electric field and / or light intensity. As an example, the beam shape function may be a function that describes the intensity of the light beam in a plane perpendicular to the light beam propagation axis, and optionally the position along the propagation axis may be an additional coordinate. . Here, in general, any type of coordinate system may be used to describe the spatial distribution of the electric field and / or intensity. However, it is preferable to use a coordinate system including a position in a plane perpendicular to the optical axis of the detector.

上記概説の通り、強度分布関数は、光学センサの画素の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含む。したがって、上記詳細な概説の通り、1つまたは複数のフィッティングアルゴリズムを用いることにより、好ましくは少なくとも1つの光学センサに平行な少なくとも1つの平面において、上記少なくとも1つの強度分布関数を決定するようにしてもよい。2次元または3次元の数学関数は具体的に、画素のマトリクスの少なくとも1つの画素座標の関数であってもよい。この追加または代替として、上記概説の通り、少なくとも1つの光学センサ上の光線の最大強度を通る断面線等、該少なくとも1つの光学センサの平面における1つまたは複数の線または軸に沿った1つまたは複数の座標等の他の座標を使用するようにしてもよい。したがって、具体的に、上記少なくとも1つの強度分布関数は、照射の中心を通る強度分布を記述した断面強度分布関数であってもよい。   As described above, the intensity distribution function includes a two-dimensional or three-dimensional mathematical function that approximates the intensity information included in at least a part of the pixel of the optical sensor. Accordingly, as described in detail above, the at least one intensity distribution function is determined by using one or more fitting algorithms, preferably in at least one plane parallel to the at least one optical sensor. Also good. The two-dimensional or three-dimensional mathematical function may specifically be a function of at least one pixel coordinate of a matrix of pixels. This addition or alternative, as outlined above, one along one or more lines or axes in the plane of the at least one optical sensor, such as a cross-sectional line through the maximum intensity of light on the at least one optical sensor Alternatively, other coordinates such as a plurality of coordinates may be used. Therefore, specifically, the at least one intensity distribution function may be a cross-sectional intensity distribution function describing an intensity distribution passing through the center of irradiation.

1つまたは複数の数学関数を使用する場合、マトリクスの画素の画素位置は具体的に、x、yを画素座標として、(x,y)により規定されるようになっていてもよい。この追加または代替として、rを中心点または中心軸からの距離とする座標等、円柱座標または球座標を使用するようにしてもよい。後者は具体的に、たとえば光線の伝搬軸に垂直な表面をガウス光線が照射する場合に一般的な円対称強度分布に有用となる場合がある(たとえば、以下の方程式(2)を参照)。2次元または3次元の数学関数は具体的に、f(x)、f(y)、f(x,y)から成る群から選択される1つまたは複数の関数を含んでいてもよい。ただし、上記概説の通り、これらの座標系は、好ましくはマトリクスの平面において、1つまたは複数の座標x’および/またはy’とともに使用するようにしてもよい。したがって、上記概説の通り、光線によるマトリクスの照射の中心と交差する軸上に、座標x’を選定するようにしてもよい。これにより、照射の中心を通る断面強度分布を記述または近似した強度分布関数f(x’)が導出されるようになっていてもよい。   When one or more mathematical functions are used, the pixel position of the pixel of the matrix may be specifically defined by (x, y), where x and y are pixel coordinates. Alternatively or alternatively, cylindrical or spherical coordinates may be used, such as coordinates where r is the center point or distance from the center axis. Specifically, the latter may be useful for a general circularly symmetric intensity distribution when, for example, a Gaussian ray irradiates a surface perpendicular to the propagation axis of the ray (see, for example, Equation (2) below). The two-dimensional or three-dimensional mathematical function may specifically include one or more functions selected from the group consisting of f (x), f (y), and f (x, y). However, as outlined above, these coordinate systems may be used with one or more coordinates x 'and / or y', preferably in the plane of the matrix. Therefore, as outlined above, the coordinate x 'may be selected on an axis that intersects the center of irradiation of the matrix with light rays. Thereby, an intensity distribution function f (x ′) that describes or approximates the cross-sectional intensity distribution passing through the center of irradiation may be derived.

上記概説の通り、強度分布関数は一般的に、ガウス光線等の光線により表面が照射された場合に通常生じる任意の関数であってもよい。ここで、実際の照射または強度分布に対する関数のフィッティングのため、1つまたは複数のフィッティングパラメータを使用するようにしてもよい。一例として、より詳しく以下に説明するガウス関数の場合(たとえば、以下の方程式(2)を参照)は、幅wおよび/または縦方向座標zが適当なフィッティングパラメータであってもよい。 As outlined above, the intensity distribution function may generally be any function that normally occurs when the surface is illuminated by light rays such as Gaussian rays. Here, one or more fitting parameters may be used for fitting the function to the actual illumination or intensity distribution. As an example, in the case of a Gaussian function described in more detail below (see, for example, equation (2) below), width w 0 and / or longitudinal coordinate z may be appropriate fitting parameters.

2次元または3次元の数学関数は具体的に、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数から成る群から選択される。これらの強度分布関数および/または他の強度分布関数の組み合わせも可能である。   The two-dimensional or three-dimensional mathematical function is specifically a group consisting of bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function. Selected. Combinations of these intensity distribution functions and / or other intensity distribution functions are also possible.

上述の強度分布は、1つの平面において決定されるようになっていてもよいし、複数の平面において決定されるようになっていてもよい。したがって、上記概説の通り、検出器は、センサ平面のみを規定する1つの光学センサ等、1つの光学センサを備えていてもよい。あるいは、検出器は、それぞれセンサ平面を規定する複数の光学センサを含むセンサスタック等、複数の光学センサを備えていてもよい。その結果、検出器は、単一の光学センサのセンサ平面等、1つの平面における強度分布を決定するように構成されていてもよいし、あるいは、複数の平行平面等、複数の平面における強度分布を決定するように構成されていてもよい。一例として、検出器は、各センサ平面等の平面当たり、少なくとも1つの強度分布を決定するように構成されていてもよい。検出器が複数の平面において強度分布を決定するように構成されている場合、これらの平面は具体的に、検出器の光軸に垂直であってもよい。また、これらの平面は、センサスタックの光学センサのセンサ平面等、光学センサのセンサ平面等の光学センサによって決定されるようになっていてもよい。これにより、具体的にはセンサスタックを用いて、検出器は、その光軸に沿った異なる縦方向位置の複数の強度分布を決定するように構成されていてもよい。   The intensity distribution described above may be determined in one plane, or may be determined in a plurality of planes. Thus, as outlined above, the detector may comprise one optical sensor, such as one optical sensor that defines only the sensor plane. Alternatively, the detector may comprise a plurality of optical sensors, such as a sensor stack including a plurality of optical sensors each defining a sensor plane. As a result, the detector may be configured to determine the intensity distribution in one plane, such as the sensor plane of a single optical sensor, or the intensity distribution in multiple planes, such as multiple parallel planes. May be configured to determine. As an example, the detector may be configured to determine at least one intensity distribution per plane, such as each sensor plane. If the detector is configured to determine the intensity distribution in a plurality of planes, these planes may specifically be perpendicular to the optical axis of the detector. Further, these planes may be determined by an optical sensor such as a sensor plane of an optical sensor such as a sensor plane of an optical sensor of a sensor stack. Thus, specifically using the sensor stack, the detector may be configured to determine a plurality of intensity distributions at different longitudinal positions along its optical axis.

複数の光学センサ、具体的には光学センサのスタックを使用する場合、これらの光学センサは、より詳しく以下に概説する通り、全部または一部が透明であるのが好ましい。これにより、光学センサの少なくとも2つのセンサ平面について強度分布が測定可能となるように、好ましくはスタックの光学センサまたは少なくともスタックの光学センサのうちの1つもしくは複数を光線が透過するようになっていてもよい。ただし、他の実施形態も実現可能である。   When using a plurality of optical sensors, specifically a stack of optical sensors, these optical sensors are preferably all or partly transparent, as outlined in more detail below. This allows light to pass through preferably one or more of the stack optical sensors or at least one of the stack optical sensors so that the intensity distribution can be measured for at least two sensor planes of the optical sensor. May be. However, other embodiments are possible.

光軸に垂直な複数の平面について検出器が強度分布を決定するように構成されている場合、評価装置は具体的に、強度分布の変化を評価するように構成されていてもよいし、強度分布を相互および/または共通基準と比較するように構成されていてもよい。その結果、評価装置は、一例として、光軸に沿った縦方向座標の関数として、強度分布の変化を評価するように構成されていてもよい。一例として、強度分布は、光線が光軸に沿って伝搬する際に変化する場合がある。評価装置は具体的に、光軸に沿った縦方向座標の関数として強度分布の変化を評価することにより、物体の縦方向座標を決定するように構成されていてもよい。これにより、一例として、ガウス光線の場合は、当業者に明らかであるとともに以下の方程式(3)に示す通り、光線の幅が伝搬に伴って変化する。強度分布の変化を評価することによって、光線の幅および光線の幅の変化が決定されることにより、光線の焦点の決定ひいては検出器へと光線が伝搬していく物体の縦方向座標の決定が可能であってもよい。   When the detector is configured to determine the intensity distribution for a plurality of planes perpendicular to the optical axis, the evaluation device may be specifically configured to evaluate a change in the intensity distribution, and the intensity It may be configured to compare the distribution with each other and / or a common criterion. As a result, the evaluation device may be configured to evaluate the change in intensity distribution as a function of longitudinal coordinates along the optical axis, as an example. As an example, the intensity distribution may change as light rays propagate along the optical axis. Specifically, the evaluation device may be configured to determine the longitudinal coordinates of the object by evaluating the change in intensity distribution as a function of the longitudinal coordinates along the optical axis. Thus, as an example, in the case of a Gaussian ray, the width of the ray changes with propagation as will be apparent to those skilled in the art and as shown in Equation (3) below. By evaluating the change in the intensity distribution, the width of the ray and the change in the ray width are determined, so that the focus of the ray and thus the longitudinal coordinate of the object through which the ray propagates to the detector can be determined. It may be possible.

複数の平面において強度分布を決定する場合は、これら平面のうちの1つ、2つ以上、あるいはすべてについて強度分布関数が導出されるようになっていてもよい。強度分布関数、具体的にはビーム形状関数を導出するための可能な実施形態については、上記実施形態を参照可能である。具体的に、評価装置は、強度分布当たり1つまたは2つ以上の強度分布関数等、複数の強度分布関数を決定するように構成されていてもよく、各強度分布関数は、これら平面のうちの1つにおける強度分布を近似したものである。評価装置は、複数の強度分布関数から、物体の縦方向座標を導出するようにさらに構成されていてもよい。ここでも、単純なルックアップテーブル等、強度分布関数と物体の縦方向座標との間の所定の関係を使用するようにしてもよい。この追加または代替として、光線が光軸に沿って進む際のビームウェストまたはビーム径の変化等、光軸に沿った光学センサの位置および/または縦方向位置に対する強度分布関数の少なくとも1つのパラメータの依存性が決定されるようになっていてもよい。このうち、以下の方程式(3)の使用等によって、光線の焦点位置が導出されるようになっていてもよく、これにより、物体の縦方向座標に関する情報が得られるようになっていてもよい。   When determining the intensity distribution in a plurality of planes, the intensity distribution function may be derived for one, two or more or all of these planes. For possible embodiments for deriving the intensity distribution function, specifically the beam shape function, reference may be made to the above embodiments. Specifically, the evaluation device may be configured to determine a plurality of intensity distribution functions, such as one or two or more intensity distribution functions per intensity distribution, each intensity distribution function being one of these planes. Is an approximation of the intensity distribution in one of the above. The evaluation device may be further configured to derive a longitudinal coordinate of the object from a plurality of intensity distribution functions. Again, a predetermined relationship between the intensity distribution function and the longitudinal coordinates of the object, such as a simple look-up table, may be used. In addition or as an alternative, at least one parameter of the intensity distribution function for the position and / or longitudinal position of the optical sensor along the optical axis, such as a change in beam waist or beam diameter as the light ray travels along the optical axis. Dependency may be determined. Among these, the focal position of the light beam may be derived by using the following equation (3), etc., and thereby information on the vertical coordinate of the object may be obtained. .

上記概説の通り、複数の強度分布関数を決定する場合、強度分布関数は具体的に、ビーム形状関数であってもよい。具体的に、強度分布それぞれには、同じ種類のビーム形状関数を使用および/またはフィッティングするようにしてもよい。フィッティングパラメータまたはパラメータは、物体の位置に関する有益な情報を含んでいてもよい。   As described above, when determining a plurality of intensity distribution functions, the intensity distribution function may specifically be a beam shape function. Specifically, the same type of beam shape function may be used and / or fitted to each intensity distribution. The fitting parameter or parameter may include useful information regarding the position of the object.

上記概説の通り、評価装置は具体的に、強度分布関数を評価するように構成されていてもよい。具体的に、評価装置は、各強度分布関数から、少なくとも1つのビームパラメータを導出するように構成されていてもよい。これにより、一例としては、強度の中心が導出されるようになっていてもよい。この追加または代替として、以下の方程式(3)に係るガウスビームウェスト等、ビーム幅、ビームウェスト、またはビーム径が導出されるようになっていてもよい。上記概説およびより詳しく以下にする通り、ビームウェストを用いて、縦方向座標を決定するようにしてもよい。評価装置は具体的に、光軸に沿った縦方向座標の関数として少なくとも1つのビームパラメータの変化を評価することにより、物体の縦方向座標を決定するように構成されていてもよい。また、より詳しく以下に概説する通り、強度分布関数、具体的にはビーム形状関数を評価することにより導出された少なくとも1つのパラメータの評価等によって、少なくとも1つの横方向座標等の横方向位置が導出されるようになっていてもよい。これにより、一例として、上述の照射の中心は、少なくとも1つの横方向座標の提供等によって、物体の横方向位置に関する有益な情報を提供するようになっていてもよい。また、光学センサのスタックの照射の中心の位置を追跡することによって、ビーム追跡を行うことにより、物体の1つまたは2つ以上の横方向座標等の横方向位置を決定可能であってもよい。   As outlined above, the evaluation device may be specifically configured to evaluate the intensity distribution function. Specifically, the evaluation device may be configured to derive at least one beam parameter from each intensity distribution function. Thereby, as an example, the center of intensity may be derived. As an addition or alternative, a beam width, beam waist, or beam diameter, such as a Gaussian beam waist according to the following equation (3), may be derived. As described above and in more detail below, longitudinal coordinates may be determined using a beam waist. The evaluation device may be specifically configured to determine the longitudinal coordinates of the object by evaluating a change in at least one beam parameter as a function of the longitudinal coordinates along the optical axis. Also, as outlined in more detail below, the lateral position, such as at least one lateral coordinate, may be determined by evaluating at least one parameter derived by evaluating an intensity distribution function, specifically a beam shape function. It may be derived. Thereby, as an example, the center of illumination described above may provide useful information regarding the lateral position of the object, such as by providing at least one lateral coordinate. It may also be possible to determine the lateral position of the object, such as one or more lateral coordinates, by tracking the position of the center of illumination of the stack of optical sensors and performing beam tracking. .

検出器の光軸に垂直な複数の平面等において複数のビーム形状関数から導出可能な上述の少なくとも1つのビームパラメータは一般的に、任意のビームパラメータであってもよいし、ビームパラメータの組み合わせであってもよい。具体的に、上記少なくとも1つのビームパラメータは、ビーム径、ビームウェスト、ガウスビームパラメータから成る群から選択されるようになっていてもよい。この追加または代替として、上記概説の通り、照射の中心が決定されるようになっていてもよい。   In general, the at least one beam parameter derivable from a plurality of beam shape functions in a plurality of planes perpendicular to the optical axis of the detector may be an arbitrary beam parameter or a combination of beam parameters. There may be. Specifically, the at least one beam parameter may be selected from the group consisting of a beam diameter, a beam waist, and a Gaussian beam parameter. Alternatively or alternatively, the center of illumination may be determined as outlined above.

上記概説の通り、評価装置は具体的に、ビームパラメータと縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成されていてもよい。この所定の関係は、たとえば以下の式(2)または式(3)で与えられるように、ガウス光線の既知の伝搬特性等の分析的な関係であってもよいし、このような関係を含んでいてもよい。この追加または代替として、経験的または半経験的な関係等、他の種類の所定関係を使用するようにしてもよい。また、この追加または代替として、この所定の関係は、少なくとも1つのパラメータの関数として少なくとも1つの縦方向座標を示すルックアップテーブルとして提供されていてもよい。さまざまな種類の評価ルーチンが可能であり、評価装置において容易に実装可能であってもよい。   As outlined above, the evaluation device may be specifically configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the beam parameters and the longitudinal coordinates. This predetermined relationship may be an analytical relationship such as a known propagation characteristic of a Gaussian ray, as given by the following formula (2) or (3), for example, and includes such a relationship: You may go out. In addition to or as an alternative, other types of predetermined relationships may be used, such as empirical or semi-empirical relationships. Additionally or alternatively, the predetermined relationship may be provided as a look-up table that indicates at least one longitudinal coordinate as a function of at least one parameter. Various types of evaluation routines are possible and may be easily implemented in the evaluation device.

検出器は、複数の平面において強度分布を評価することにより、画像スタックすなわち複数の平面における画素マトリクスの強度値のスタックを記録するように構成されていてもよい。画像スタックは、画素の3次元マトリクスとして記録されるようになっていてもよい。複数の平面における強度分布関数の導出等、複数の平面における強度分布関数の評価によって、さまざまな種類の画像評価が実現可能である。具体的には、光線の光照射野の3次元画像が導出および/または記録されるようになっていてもよい。したがって、具体的にはより詳しく以下に概説するような画素化された透明または半透明の有機光学センサ等の画素化された光学センサを用いることにより、検出器は、そのレンズまたはレンズ系までの異なる距離等、光軸に沿った異なる縦方向位置における写真スタックを記録するように構成されていてもよい。光学センサのスタックを用いて複数の画像を記録する場合は、順次または同時に記録を行うようにしてもよい。   The detector may be configured to record an image stack, ie, a stack of intensity values of a pixel matrix in the plurality of planes, by evaluating the intensity distribution in the plurality of planes. The image stack may be recorded as a three-dimensional matrix of pixels. Various types of image evaluation can be realized by evaluating intensity distribution functions in a plurality of planes, such as derivation of intensity distribution functions in a plurality of planes. Specifically, a three-dimensional image of the light irradiation field may be derived and / or recorded. Thus, by using a pixelated optical sensor, such as a pixelated transparent or translucent organic optical sensor, as specifically outlined in more detail below, the detector can be moved up to its lens or lens system. It may be configured to record photographic stacks at different longitudinal positions along the optical axis, such as different distances. When recording a plurality of images using a stack of optical sensors, recording may be performed sequentially or simultaneously.

上記概説の通り、写真スタックを分析することによって、3D情報を取得するようにしてもよい。写真スタックを分析するため、検出器、具体的には評価装置は、ビーム形状関数のフィッティングを行って、写真スタックの写真における強度分布のモデル化等、画素の照射のモデル化を行うように構成されていてもよい。ビーム形状関数は、写真スタックの写真の中で比較することにより、光線に関する情報を取得して、物体の縦方向位置および任意選択として物体の横方向位置に関する情報を取得するようにしてもよい。一例として、また、上記概説の通り、レンズからの距離の関数等、光軸に沿った縦方向座標の関数としてのビーム幅またはビームウェストの評価等によって、光線の拡がりまたは集束が決定されるようになっていてもよい。また、光学分野の当業者が一般的に把握している通り、検出器の伝達装置のレンズ等の要素の集束または拡散特性を考慮に入れるようにしてもよい。これにより、一例として、レンズ特性が既知であるとともに強度分布関数、具体的にはビーム形状関数を評価することにより光線の拡がりまたは集束が決定される場合、光線が検出器へと伝搬していく物体の距離は、すべての既知の所定関係の計算または使用等によって決定されるようになっていてもよい。   As outlined above, 3D information may be obtained by analyzing a photo stack. In order to analyze the photo stack, the detector, specifically the evaluation device, is configured to model the illumination of the pixels, such as modeling the intensity distribution in the photo of the photo stack, by fitting the beam shape function May be. The beam shape function may be compared in the photos of the photo stack to obtain information about the light rays and optionally information about the vertical position of the object and optionally the horizontal position of the object. As an example, and as outlined above, beam spreading or focusing may be determined by evaluation of beam width or beam waist as a function of longitudinal coordinates along the optical axis, such as a function of distance from the lens. It may be. Also, as generally understood by those skilled in the art of optics, the focusing or diffusing characteristics of elements such as lenses of detector transmission devices may be taken into account. Thus, as an example, when the lens characteristics are known and the spread or convergence of the light beam is determined by evaluating the intensity distribution function, specifically the beam shape function, the light beam propagates to the detector. The distance of the object may be determined by calculation or use of all known predetermined relationships.

複数の平面における強度分布の評価に対して、1つの平面における強度分布の評価は、さまざまな方法で実施可能である。したがって、上記概説の通り、さまざまな種類の強度分布関数を使用するようにしてもよい。一例としては、平面上の照射の中心に関して回転対称な回転対称強度分布関数を使用するようにしてもよい。この追加または代替として、より低い対称度等、他の種類の対称性を有する1つまたは複数の強度分布関数を使用するようにしてもよい。さらに、1つまたは複数の点対称および/または鏡面対称強度分布関数を使用するようにしてもよい。さらに、1つまたは複数のガウス関数と1つまたは複数の多項式との組み合わせ等、2つ以上の強度分布関数の組み合わせを使用するようにしてもよい。さらに、回転対称関数の導関数および/または複数の関数の積を使用するようにしてもよい。さらには、指数が異なる2つ以上のガウス関数の線形結合等、2つ以上の関数の線形結合である少なくとも1つの強度分布関数を使用するようにしてもよい。また、他の種類の強度分布関数を使用するようにしてもよい。ここで、強度は、さまざまな方法で評価可能である。画像とも称する強度分布を分析する効率的な方法は、強度分布内のエッジの分析であってもよい。強度分布内のエッジの分析は、ビーム形状の評価の追加または代替として実施するようにしてもよい。さらに、エッジの分析は、構造またはコントラストがほとんどまたは全くない物体の縦方向座標の推定が一般的に可能であるため、好ましい場合がある。したがって、検出器および評価装置は一般的に、少なくとも1つの強度分布または画像スタックとも称する複数の平面における複数の強度分布内のエッジを決定するように構成されていてもよい。画像スタックの画像内のエッジの変化および/またはエッジの比較によって、物体の縦方向位置情報を導出可能となる場合がある。   In contrast to the evaluation of the intensity distribution in a plurality of planes, the evaluation of the intensity distribution in one plane can be performed in various ways. Therefore, as outlined above, various types of intensity distribution functions may be used. As an example, a rotationally symmetric intensity distribution function that is rotationally symmetric with respect to the center of irradiation on a plane may be used. As an addition or alternative to this, one or more intensity distribution functions having other types of symmetry, such as lower symmetry, may be used. In addition, one or more point-symmetric and / or mirror-symmetric intensity distribution functions may be used. Furthermore, a combination of two or more intensity distribution functions, such as a combination of one or more Gaussian functions and one or more polynomials, may be used. Furthermore, a derivative of a rotationally symmetric function and / or a product of a plurality of functions may be used. Furthermore, at least one intensity distribution function that is a linear combination of two or more functions, such as a linear combination of two or more Gauss functions having different exponents, may be used. Other types of intensity distribution functions may be used. Here, the strength can be evaluated by various methods. An efficient method of analyzing the intensity distribution, also referred to as an image, may be an analysis of edges in the intensity distribution. Analysis of edges in the intensity distribution may be performed in addition to or as an alternative to beam shape assessment. Furthermore, edge analysis may be preferred because it generally allows estimation of the longitudinal coordinates of an object with little or no structure or contrast. Thus, the detector and the evaluation device may generally be configured to determine edges in a plurality of intensity distributions in a plurality of planes, also referred to as at least one intensity distribution or image stack. It may be possible to derive the vertical position information of an object by edge changes and / or edge comparisons in the images of the image stack.

評価装置は、画素それぞれについて、信号を少なくとも1つの閾値と比較することにより、該画素が照射された画素であるか否かを判定するようにさらに構成されていてもよい。この少なくとも1つの閾値は、画素それぞれの個別の閾値であってもよいし、マトリクス全体に均一な閾値であってもよい。複数の光学センサが設けられている場合は、各光学センサおよび/または光学センサのうちの少なくとも2つを含む群に少なくとも1つの閾値を与えるようにしてもよく、2つの光学センサに関して、それぞれの閾値は同一であってもよいし、異なっていてもよい。このように、光学センサそれぞれについて、個別の閾値が与えられるようになっていてもよい。   The evaluation device may be further configured to determine, for each pixel, whether the pixel is an illuminated pixel by comparing the signal to at least one threshold. The at least one threshold value may be an individual threshold value for each pixel, or may be a uniform threshold value for the entire matrix. In the case where a plurality of optical sensors are provided, at least one threshold may be given to each optical sensor and / or a group including at least two of the optical sensors. The threshold values may be the same or different. Thus, a separate threshold value may be given for each optical sensor.

より詳しく以下に概説する通り、閾値は、所定および/または固定であってもよい。あるいは、上記少なくとも1つの閾値が可変であってもよい。このため、上記少なくとも1つの閾値は、各測定または測定群ごとに個別に決定されるようになっていてもよい。したがって、閾値を決定するように構成された少なくとも1つのアルゴリズムが提供されるようになっていてもよい。   As outlined in more detail below, the threshold may be predetermined and / or fixed. Alternatively, the at least one threshold value may be variable. For this reason, the at least one threshold value may be determined individually for each measurement or measurement group. Accordingly, at least one algorithm configured to determine the threshold may be provided.

評価装置は一般的に、画素の信号を比較することによって、該画素のうちの最大照射の少なくとも1つの画素を決定するように構成されていてもよい。したがって、検出器は一般的に、光線による照射の最大強度を有するマトリクスの1つもしくは複数の画素ならびに/またはエリアもしくは領域を決定するように構成されていてもよい。一例としては、このように、光線による照射の中心が決定されるようになっていてもよい。   The evaluation device may generally be configured to determine at least one pixel of the maximum illumination of the pixels by comparing the signals of the pixels. Thus, the detector may generally be configured to determine one or more pixels and / or areas or regions of the matrix having the maximum intensity of illumination by the light beam. As an example, the center of irradiation with light rays may be determined as described above.

最大照射ならびに/または少なくとも1つの最大照射エリアもしくは領域に関する情報は、さまざまな方法で使用可能である。したがって、上記概説の通り、上述の少なくとも1つの閾値は、可変閾値であってもよい。一例として、評価装置は、最大照射の少なくとも1つの画素の信号の割合として、上述の少なくとも1つの閾値を選定するように構成されていてもよい。したがって、評価装置は、最大照射の少なくとも1つの画素の信号に係数1/eを乗算することによって、閾値を選定するように構成されていてもよい。より詳しく以下に概説する通り、この選択肢は、上記少なくとも1つの光線がガウス伝搬特性と考えられる場合に特に好ましい。一般的には、1/eという閾値によって、ガウス光線により光学センサ上に生成されたビーム半径またはビームウェストwの光スポットの境界が決まるためである。 Information regarding maximum exposure and / or at least one maximum exposure area or region can be used in various ways. Thus, as outlined above, the at least one threshold described above may be a variable threshold. As an example, the evaluation device may be configured to select the at least one threshold described above as a ratio of the signal of at least one pixel of maximum irradiation. Therefore, the evaluation apparatus may be configured to select the threshold value by multiplying the signal of at least one pixel of maximum irradiation by the coefficient 1 / e 2 . As outlined in more detail below, this option is particularly preferred when the at least one ray is considered a Gaussian propagation characteristic. This is because, generally, the threshold of 1 / e 2 determines the boundary of the light spot of the beam radius or the beam waist w generated on the optical sensor by the Gaussian ray.

上述の実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する別の選択肢のうちの1つもしくは複数との組み合わせも可能な本発明の別の実施形態において、強度分布の決定には、光線により照射された光学センサの画素の数Nの決定が含まれていてもよく、物体の少なくとも1つの縦方向座標の決定には、光線により照射された画素の数Nの使用を含む。   In another embodiment of the present invention, which may be combined with one or more of the above-described embodiments and / or one or more of the other options disclosed in more detail below, in determining the intensity distribution May include determining the number N of pixels of the optical sensor illuminated by the light beam, and determining the at least one longitudinal coordinate of the object includes using the number N of pixels illuminated by the light beam. .

本明細書において、用語「光線により照射された光学センサの画素の数Nの決定」は一般的に、光学センサの画素を定量的に評価することによって少なくとも1つの数値(本明細書においては「N」で示す)を生成するプロセスを表す。ここで、Nは一般的に、単一の整数値等の単一の数値を表していてもよい。一例として、本実施形態は、単に画素を照射画素および非照射画素に細分化することによって実施されるようになっていてもよく、Nは単に、照射画素の部分集合における画素の数として表されていてもよい。   As used herein, the term “determining the number N of pixels of an optical sensor illuminated by a light beam” generally refers to at least one numerical value (herein “ N ”). Here, N may generally represent a single numerical value such as a single integer value. As an example, this embodiment may be implemented simply by subdividing pixels into irradiated and non-irradiated pixels, where N is simply expressed as the number of pixels in the subset of irradiated pixels. It may be.

この追加または代替として、画素は、それぞれの位置、照射、または照射度のうちの1つまたは複数に応じた部分集合等、3つ以上の集合または部分集合に細分化されるようになっていてもよい。これにより、一例として、評価装置は、光線により照射された画素の少なくとも一部の強度分布を決定するように構成されていてもよい。言い換えると、評価装置は、画素全体または照射画素等の一部をそれぞれの照射および/または位置に応じた複数の集合に細分化するように構成されていてもよい。これにより、一例として、評価装置は、たとえばエッジもしくは形状検出等の写真分析アルゴリズムまたはコントラスト、彩度、色相等が類似する領域への分離に基づいて、画素全体またはその一部を部分集合に細分化するように構成されていてもよい。画素全体を2つ以上の部分集合に細分化する他のアルゴリズムも可能である。   In addition or as an alternative, the pixels are subdivided into more than two sets or subsets, such as a subset depending on one or more of the respective position, illumination, or intensity. Also good. Thereby, as an example, the evaluation apparatus may be configured to determine the intensity distribution of at least a part of the pixels irradiated with the light beam. In other words, the evaluation device may be configured to subdivide the entire pixel or a part of the irradiated pixel into a plurality of sets corresponding to each irradiation and / or position. Thereby, as an example, the evaluation device subdivides the whole pixel or a part thereof into a subset based on, for example, a photo analysis algorithm such as edge or shape detection or separation into regions with similar contrast, saturation, hue, etc. You may be comprised so that it may become. Other algorithms that subdivide the entire pixel into two or more subsets are possible.

評価装置は、光線により照射された画素の数Nと物体の縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成されていてもよい。したがって、光線の直径は一般的に、当業者が一般的に把握している伝搬特性によって、伝搬の縦方向座標等、伝搬に伴って変化する。照射画素の数と物体の縦方向座標との間の関係は、経験的に決定される関係および/または分析的に決定される関係であってもよい。これにより、一例としては、校正プロセスを用いることにより、照射画素の数と縦方向座標との間の関係を決定するようにしてもよい。この追加または代替として、上述の通り、上記所定の関係は、光線がガウス光線であるという仮定に基づいていてもよい。光線は、厳密に1つの波長λを有する単色光線であってもよいし、複数の波長または波長スペクトルを有する光線であってもよく、一例としては、スペクトルの中心波長および/またはスペクトルの特性ピークの波長が光線の波長λとして選定されるようになっていてもよい。複数の光学センサを使用している場合は、光学センサそれぞれの照射画素の数と縦方向座標との間の特定の所定関係を使用するようにしてもよい。これにより、一例としては、光学センサごとに、照射画素の数と縦方向座標との間の所定の関係が与えられるようになっていてもよい。より詳しく以下に概説する通り、光学センサは、スタック配置されていてもよい。さらに、各光学センサは、画素のマトリクスおよび/または画素の異なる形状等、異なる形状等の異なる特性を有していてもよい。さらに、各光学センサは、異なるスペクトル感度等の異なる感度を有していてもよい。光学センサそれぞれの照射画素の数の間の特定の所定関係を与えることによって、これら光学センサの異なる特性を考慮に入れるようにしてもよい。   The evaluation device may be configured to determine the vertical coordinate of the object by using a predetermined relationship between the number N of pixels irradiated by the light beam and the vertical coordinate of the object. Accordingly, the diameter of the light beam generally varies with propagation, such as the longitudinal coordinate of propagation, depending on the propagation characteristics generally known to those skilled in the art. The relationship between the number of illuminated pixels and the longitudinal coordinates of the object may be an empirically determined relationship and / or an analytically determined relationship. Thereby, as an example, the relationship between the number of irradiated pixels and the vertical coordinate may be determined by using a calibration process. As an addition or alternative, as described above, the predetermined relationship may be based on the assumption that the ray is a Gaussian ray. The light beam may be a monochromatic light beam having exactly one wavelength λ, or may be a light beam having a plurality of wavelengths or wavelength spectra, for example, the center wavelength of the spectrum and / or the characteristic peak of the spectrum. May be selected as the wavelength λ of the light beam. When a plurality of optical sensors are used, a specific predetermined relationship between the number of irradiation pixels of each optical sensor and the vertical coordinate may be used. Thereby, as an example, for each optical sensor, a predetermined relationship between the number of irradiation pixels and the vertical coordinate may be given. As outlined in more detail below, the optical sensors may be stacked. Further, each optical sensor may have different characteristics, such as different shapes, such as a matrix of pixels and / or different shapes of pixels. Furthermore, each optical sensor may have different sensitivities such as different spectral sensitivities. Different characteristics of these optical sensors may be taken into account by giving a specific predetermined relationship between the number of illuminated pixels of each of the optical sensors.

分析的に決定される関係の一例として、光線のガウス特性を仮定することにより導出可能な上記所定の関係は、以下の通りであってもよい。

Figure 2016529473
ここで、zは、縦方向座標であり、
は、光線が空間中を伝搬する際の最小ビーム半径であり、
は、光線のレイリー長であって、z=π・w /λであるとともに、λは光線の波長である。 As an example of the analytically determined relationship, the predetermined relationship that can be derived by assuming a Gaussian characteristic of the light beam may be as follows.
Figure 2016529473
Where z is the vertical coordinate,
w 0 is the minimum beam radius at which a ray propagates through space,
z 0 is the Rayleigh length of the ray, z 0 = π · w 0 2 / λ, and λ is the wavelength of the ray.

Nが整数である場合、式(1)は、その右辺の項以下または以上の最も近い整数を探索する関数等の付加的な関数の使用等による整数の構成を示唆していてもよい。また、他の整数構成関数も実現可能である。   If N is an integer, Equation (1) may suggest an integer configuration, such as by using an additional function such as a function that searches for the nearest integer less than or above its right-hand side term. Other integer constituent functions can also be realized.

この関係は一般的に、座標系のz軸に沿って進むガウス光線の強度Iの一般方程式から導出されるようになっていてもよく、rがz軸に垂直な座標、Eが光線の電界である。

Figure 2016529473
This relationship may generally be derived from a general equation for the intensity I of a Gaussian ray traveling along the z-axis of the coordinate system, where r is the coordinate perpendicular to the z-axis and E is the electric field of the ray. It is.
Figure 2016529473

一般的にガウス曲線を表すガウス光線の横方向プロファイルのビーム半径wは、特定のz値に関して、振幅Eが1/eの値(およそ36%)まで低下し、強度Iが1/eまで低下したz軸からの特定の距離として規定される。上記に示したガウス方程式(z座標変換の実行時等に他のz値でも起こり得る)において座標z=0で生じる最小ビーム半径は、wによって規定される。z座標に応じて、ビーム半径は一般的に、光線がz軸に沿って伝搬する場合、以下の方程式に従う。

Figure 2016529473
The beam radius w of the lateral profile of a Gaussian ray that generally represents a Gaussian curve, for a particular z value, the amplitude E drops to a value of 1 / e (approximately 36%) and the intensity I to 1 / e 2. Defined as a specific distance from the lowered z-axis. The minimum beam radius that occurs at coordinate z = 0 in the Gaussian equation shown above (which can also occur at other z values, such as when performing z coordinate transformation) is defined by w 0 . Depending on the z coordinate, the beam radius generally follows the following equation when a ray propagates along the z axis.
Figure 2016529473

照射画素の数Nが光学センサの照射エリアAに比例する状態、
N〜A (4)
または、複数の光学センサi=1、・・・、nを使用する場合に、各光学センサの照射画素の数Nが各光学センサの照射エリアAに比例する状態で、
〜A (4’)
半径wの円の一般的な面積が以下の通りであることから、
A=π・w (5)
照射画素の数とz座標との間に、それぞれ以下の関係が導出されるようになっていてもよい。

Figure 2016529473
ただし、上述の通り、z=π・w /λである。このように、NまたはNは、それぞれI≧I/eの強度で照射された円内の画素の数であることから、一例として、画素の単純な計数および/またはヒストグラム解析等の他の方法で決定されるようになっていてもよい。言い換えると、z座標と照射画素の数NまたはNそれぞれとの間の明確に定められた関係を用いることにより、物体への組み込みおよび/または取り付けがなされた少なくとも1つのビーコンデバイスの少なくとも1つの縦方向座標等、物体および/または該物体の少なくとも1つの点の縦方向座標zを決定するようにしてもよい。 A state in which the number N of irradiation pixels is proportional to the irradiation area A of the optical sensor;
N to A (4)
Alternatively, when using a plurality of optical sensors i = 1,..., N, the number N i of irradiation pixels of each optical sensor is proportional to the irradiation area A i of each optical sensor,
N i to A i (4 ′)
Since the general area of a circle of radius w is as follows:
A = π · w 2 (5)
The following relationship may be derived between the number of irradiation pixels and the z coordinate.
Figure 2016529473
However, as described above, z 0 = π · w 0 2 / λ. Thus, since N or N i is the number of pixels in a circle irradiated with an intensity of I ≧ I 0 / e 2 , as an example, simple counting of pixels and / or histogram analysis, etc. It may be determined by other methods. In other words, by using a well-defined relationship between the z-coordinate and the number of illuminated pixels N or N i, respectively, at least one of the at least one beacon device that has been incorporated and / or attached to the object. The longitudinal coordinate z of the object and / or at least one point of the object, such as the longitudinal coordinate, may be determined.

また、上記概説の通り、方程式(2)または方程式(3)に示すような上述の関数は、1つまたは複数の平面、具体的には検出器の光軸に垂直な1つまたは複数の平面における強度分布を近似するビーム形状関数または強度分布関数として使用するようにしてもよい。   Also, as outlined above, the above function as shown in equation (2) or equation (3) is one or more planes, specifically one or more planes perpendicular to the optical axis of the detector. May be used as a beam shape function or an intensity distribution function approximating the intensity distribution at.

上記概説の通り、本発明は一般的に、強度分布に対する1つまたは複数のビーム形状関数のフィッティングを行う上述のフィッティングプロセスの使用および/または光線により照射された光学センサの画素の数Nを決定する上述のプロセスの使用等、1つまたは複数の強度分布関数によって近似可能な強度分布の使用により物体の少なくとも1つの縦方向座標を決定することに基づく。方程式(1)、方程式(2)、または方程式(3)等、上記に示す方程式においては、光線が位置z=0に焦点を有するものと仮定している。ただし、特定の値の加算および/または減算等によってz座標の座標変換が可能であることに留意するものとする。これにより、一例として、焦点の位置は通常、物体の検出器からの距離および/または光線の他の特性によって決まる。したがって、焦点および/または焦点の位置を決定することにより、焦点の位置と物体および/またはビーコンデバイスの縦方向座標との間の経験的および/または分析的な関係の使用等によって、物体の位置、具体的には物体の縦方向座標が決定されるようになっていてもよい。さらには、上記少なくとも1つの任意選択としてのレンズ等の少なくとも1つの任意選択としての伝達装置の結像特性を考慮に入れるようにしてもよい。これにより、一例として、ビーコンデバイスに含まれる照射装置の放出特性が既知である場合等、物体から検出器へと案内される光線のビーム特性が既知の場合は、物体から伝達装置までの伝搬、伝達装置の結像、および伝達装置から上記少なくとも1つの光学センサまでのビーム伝搬を表す適当なガウス伝送行列を用いることにより、ビームウェストと物体および/またはビーコンデバイスの位置との間の相関が分析的に容易に決定されるようになっていてもよい。この追加または代替として、適当な校正測定により相関が経験的に決定されるようになっていてもよい。   As outlined above, the present invention generally determines the use of the above-described fitting process to fit one or more beam shape functions to the intensity distribution and / or the number N of pixels of the optical sensor illuminated by the light beam. Based on determining at least one longitudinal coordinate of the object by use of an intensity distribution that can be approximated by one or more intensity distribution functions. In the equations shown above, such as equation (1), equation (2), or equation (3), it is assumed that the ray is focused at position z = 0. However, it should be noted that the coordinate transformation of the z coordinate can be performed by adding and / or subtracting a specific value. Thereby, by way of example, the position of the focus is usually determined by the distance of the object from the detector and / or other characteristics of the light beam. Thus, by determining the focus and / or position of the focus, the position of the object, such as by using empirical and / or analytical relationships between the position of the focus and the longitudinal coordinates of the object and / or beacon device, etc. Specifically, the vertical coordinate of the object may be determined. Furthermore, the imaging characteristics of at least one optional transmission device such as the at least one optional lens may be taken into account. Thereby, as an example, when the beam characteristics of the light beam guided from the object to the detector, such as when the emission characteristics of the irradiation device included in the beacon device are known, propagation from the object to the transmission device, By using a suitable Gaussian transmission matrix representing the imaging of the transmission device and the beam propagation from the transmission device to the at least one optical sensor, the correlation between the beam waist and the position of the object and / or beacon device is analyzed. It may be determined easily. In addition or as an alternative, the correlation may be determined empirically by appropriate calibration measurements.

上記概説の通り、画素のマトリクスは、好ましくは2次元マトリクスであってもよい。ただし、1次元マトリクス等、他の実施形態も実現可能である。上記概説の通り、画素のマトリクスは、矩形マトリクスであるのがより好ましい。   As outlined above, the matrix of pixels may preferably be a two-dimensional matrix. However, other embodiments such as a one-dimensional matrix can be realized. As outlined above, the pixel matrix is more preferably a rectangular matrix.

検出器は、厳密に1つの光学センサを備えていてもよいし、複数の光学センサを備えていてもよい。複数の光学センサが設けられている場合、これらの光学センサは、さまざまに配置可能である。これにより、一例として、光線は、2つ以上のビームに分割され、各ビームが光学センサのうちの1つまたは複数に案内されるようになっていてもよい。この追加または代替として、好ましくはそれぞれの感応エリアが同じ方向を向いた状態で、検出器の光軸等の軸に沿って光学センサのうちの2つ以上が積み重ねられていてもよい。これにより、一例として、検出器は、複数の光学センサを備えていてもよく、該光学センサは、検出器の光軸に沿って積み重ねられている。   The detector may include exactly one optical sensor, or may include a plurality of optical sensors. When a plurality of optical sensors are provided, these optical sensors can be arranged in various ways. Thereby, as an example, the light beam may be split into two or more beams, each beam being guided to one or more of the optical sensors. As an addition or alternative, two or more of the optical sensors may be stacked along an axis, such as the optical axis of the detector, preferably with each sensitive area oriented in the same direction. Thereby, as an example, the detector may include a plurality of optical sensors, and the optical sensors are stacked along the optical axis of the detector.

一例として、検出器は、n個(n>1)の光学センサを備えていてもよい。ここで、nは、正の整数であるのが好ましい。上記概説の通り、強度分布は、n個の光学センサのセンサ平面それぞれについての強度分布関数の導出等により、センサ平面において評価されるようになっていてもよい。この追加または代替として、評価装置は一般的に、光学センサそれぞれについて、光線により照射された画素の数Nを決定するように構成されていてもよく、i∈{1,n}は、各光学センサを示している。本明細書において、「各」は、光線の非照射および/または他の目的での使用によって結果的に照射画素の数が決定されることのない光学センサが存在し得るという事実にも関わらず、複数の光学センサの各光学センサ部について照射画素の数が決定されるという事実を表す。 As an example, the detector may include n (n> 1) optical sensors. Here, n is preferably a positive integer. As outlined above, the intensity distribution may be evaluated at the sensor plane, such as by deriving an intensity distribution function for each of the sensor planes of the n optical sensors. In addition or as an alternative, the evaluation device may generally be configured to determine the number N i of pixels illuminated by the light beam for each optical sensor, where i∈ {1, n} 1 shows an optical sensor. As used herein, “each” refers to the fact that there may be optical sensors where the number of illuminated pixels is not determined by non-irradiation of light and / or use for other purposes. Represents the fact that the number of illuminated pixels is determined for each optical sensor portion of the plurality of optical sensors.

評価装置は、各光学センサについて、光線により照射された画素の数Nを少なくとも1つの隣接する光学センサと比較することにより、物体の縦方向座標の曖昧さを解消するように構成されていてもよい。 Evaluation unit, for each optical sensor, by comparison with at least one adjacent optical sensors the number N i of pixels illuminated by light, and is configured to eliminate the ambiguity of the longitudinal coordinates of the object Also good.

光学センサのセンサ信号は、さまざまに使用可能である。これにより、一例としては、センサ信号の冗長性を利用することにより、光線のパワーに関する未知の情報をなくすようにしてもよい。このため、最も強いセンサ信号の値1または100への設定およびこの最も強いセンサ信号の一部としてのその他センサ信号の提供等によって、センサ信号を正規化するようにしてもよい。したがって、一般的に、評価装置は、光線のパワーに関して、光学センサのセンサ信号を正規化するように構成されていてもよい。ただし、この追加または代替として、上記概説の通り、適当な閾値を設定して光線により照射された画素および光線により照射されていない画素を決定すること等のため、各光学センサにおいて正規化を行うようにしてもよい。   The sensor signal of the optical sensor can be used in various ways. Thus, as an example, unknown information regarding the power of the light beam may be eliminated by using the redundancy of the sensor signal. For this reason, the sensor signal may be normalized by setting the strongest sensor signal to the value 1 or 100 and providing other sensor signals as part of the strongest sensor signal. Thus, in general, the evaluation device may be configured to normalize the sensor signal of the optical sensor with respect to the power of the light beam. However, as an addition or alternative to this, as described above, normalization is performed in each optical sensor in order to determine an appropriate threshold value and determine pixels irradiated with light rays and pixels not irradiated with light rays. You may do it.

上記少なくとも1つの光学センサは一般的に、透明であってもよいし、不透明であってもよい。これにより、一例として、光学センサは、透明であって、光線のパワーの少なくとも10%、好ましくは少なくとも20%、より好ましくは少なくとも50%を透過させるように構成されていてもよい。スタック状等、複数の光学センサが設けられている場合は、これら光学センサのうちの少なくとも1つが透明であるのが好ましい。   The at least one optical sensor may generally be transparent or opaque. Thereby, as an example, the optical sensor may be transparent and configured to transmit at least 10%, preferably at least 20%, more preferably at least 50% of the power of the light beam. When a plurality of optical sensors such as a stack are provided, at least one of these optical sensors is preferably transparent.

スタック状および/または別の構成に配置可能な複数の光学センサが設けられている場合、これらの光学センサは、同一のスペクトル感度を有していてもよいし、異なるスペクトル感度を与えていてもよい。これにより、一例として、光学センサのうちの少なくとも2つが異なるスペクトル感度を有していてもよい。本明細書において、スペクトル感度という用語は一般的に、光線のパワーが同じである場合に、光学センサのセンサ信号が光線の波長とともに変化し得るという事実を表す。したがって、一般的には、光学センサのうちの少なくとも2つのスペクトル特性が異なっていてもよい。本実施形態は一般的に、異なる種類の色素または他の吸収材料等、光学センサに対して異なる種類の吸収材料を用いることにより実現されるようになっていてもよい。この追加または代替として、光学センサの前方における1つもしくは複数のフィルタ(たとえば、カラーフィルタ)等の1つもしくは複数の波長選択要素の使用ならびに/または1つもしくは複数のプリズムの使用ならびに/または1つもしくは複数のダイクロイックミラーの使用等、光学センサおよび/または検出器に実装する他の手段によって、光学センサの異なるスペクトル特性が生成されるようになっていてもよい。したがって、複数の光学センサが設けられている場合は、特定の透過または反射特性を有することにより光学センサの異なるスペクトル特性を生成するカラーフィルタ等の波長選択要素を光学センサのうちの少なくとも1つが有していてもよい。さらに、より詳しく以下に概説する通り、複数の光学センサを使用している場合、これらの光学センサは、すべてが有機光学センサであってもよいし、すべてが無機光学センサであってもよいし、すべてが混成有機−無機光学センサであってもよいし、有機光学センサ、無機光学センサ、および混成有機−無機光学センサから成る群から選択される少なくとも2つの光学センサの任意の組み合わせであってもよい。   When multiple optical sensors that can be arranged in a stack and / or in different configurations are provided, these optical sensors may have the same spectral sensitivity or different spectral sensitivities. Good. Thereby, as an example, at least two of the optical sensors may have different spectral sensitivities. As used herein, the term spectral sensitivity generally refers to the fact that the sensor signal of an optical sensor can change with the wavelength of the light when the power of the light is the same. Thus, in general, at least two of the optical sensors may have different spectral characteristics. This embodiment may generally be realized by using different types of absorbing materials for the optical sensor, such as different types of dyes or other absorbing materials. In addition or as an alternative, the use of one or more wavelength selective elements such as one or more filters (eg color filters) in front of the optical sensor and / or the use of one or more prisms and / or 1 Different spectral characteristics of the optical sensor may be generated by other means implemented in the optical sensor and / or detector, such as the use of one or more dichroic mirrors. Therefore, when a plurality of optical sensors are provided, at least one of the optical sensors has a wavelength selection element such as a color filter that generates a different spectral characteristic of the optical sensor by having a specific transmission or reflection characteristic. You may do it. Further, as outlined in more detail below, when multiple optical sensors are used, these optical sensors may all be organic optical sensors or all inorganic optical sensors. , All may be hybrid organic-inorganic optical sensors, or any combination of at least two optical sensors selected from the group consisting of organic optical sensors, inorganic optical sensors, and hybrid organic-inorganic optical sensors, Also good.

複数の光学センサを使用し、これら光学センサのうちの少なくとも2つのスペクトル感度が異なる場合、評価装置は一般的に、スペクトル感度が異なる光学センサのセンサ信号を比較することによって、光線の色を決定するように構成されていてもよい。本明細書において、表現「色を決定する」は一般的に、光線に関する少なくとも1つのスペクトル情報を生成するステップを表す。この少なくとも1つのスペクトル情報は、波長、具体的にはピーク波長、CIE座標等の色座標から成る群から選択されるようになっていてもよい。   When multiple optical sensors are used and at least two of these optical sensors have different spectral sensitivities, the evaluator generally determines the color of the light by comparing the sensor signals of optical sensors with different spectral sensitivities. It may be configured to. As used herein, the expression “determine color” generally refers to the step of generating at least one spectral information about a ray. The at least one spectral information may be selected from the group consisting of wavelength, specifically peak wavelength, and color coordinates such as CIE coordinates.

光線の色の決定は、当業者が一般的に把握しているさまざまな方法で実施可能である。したがって、光学センサのスペクトル感度は、色空間の座標系に広がっていてもよく、たとえばCIE座標を決定する方法によって当業者が把握している通り、光学センサが与える信号によって、この色空間の座標が与えられるようになっていてもよい。   The determination of the color of the light beam can be performed in a variety of ways generally known to those skilled in the art. Therefore, the spectral sensitivity of the optical sensor may be spread over the coordinate system of the color space, for example, as known by those skilled in the art by the method of determining the CIE coordinates, May be given.

一例として、検出器は、スタック状の2つまたは3つ以上の光学センサを備えていてもよい。したがって、光学センサのうちの少なくとも2つ、好ましくは少なくとも3つが異なるスペクトル感度を有していてもよい。さらに、評価装置は、スペクトル感度が異なる光学センサの信号を評価することによって、光線の少なくとも1つの色情報を生成するように構成されていてもよい。   As an example, the detector may comprise two or more optical sensors in a stack. Thus, at least two, preferably at least three of the optical sensors may have different spectral sensitivities. Further, the evaluation device may be configured to generate at least one color information of the light beam by evaluating signals of optical sensors having different spectral sensitivities.

一例として、スタックには、スペクトル感応光学センサである少なくとも3つの光学センサが含まれていてもよい。したがって、たとえばスペクトル感応光学センサは、最大吸収波長λrのスペクトル域が600nm<λr<780nmである少なくとも1つの赤色感応光学センサを備えていてもよく、これらスペクトル感応光学センサは、最大吸収波長λgのスペクトル域が490nm<λg<600nmである少なくとも1つの緑色感応光学センサをさらに備えるとともに、これらスペクトル感応光学センサは、最大吸収波長λbのスペクトル域が380nm<λb<490nmである少なくとも1つの青色感応光学センサをさらに備える。一例として、赤色感応光学センサ、緑色感応光学センサ、および青色感応光学センサは、この順序または異なる順序にて、物体に対向する光学センサスタックの第1の光学センサであってもよい。   As an example, the stack may include at least three optical sensors that are spectrally sensitive optical sensors. Thus, for example, a spectrally sensitive optical sensor may comprise at least one red sensitive optical sensor whose spectral range of maximum absorption wavelength λr is 600 nm <λr <780 nm, which spectral sensitive optical sensor has a maximum absorption wavelength λg. The spectral sensitive optical sensor further comprises at least one green sensitive optical sensor having a spectral range of 490 nm <λg <600 nm, and the spectral sensitive optical sensor has at least one blue sensitive optical having a spectral range of a maximum absorption wavelength λb of 380 nm <λb <490 nm. A sensor is further provided. As an example, the red sensitive optical sensor, the green sensitive optical sensor, and the blue sensitive optical sensor may be the first optical sensor of the optical sensor stack facing the object in this order or in a different order.

評価装置は、少なくとも2つの色座標、好ましくは少なくとも3つの色座標を生成するように構成されていてもよく、色座標はそれぞれ、スペクトル感応光学センサのうちの1つの信号を正規化値で除算することによって決定される。一例として、正規化値には、すべてのスペクトル感応光学センサの信号の合計を含んでいてもよい。この追加または代替として、正規化値には、白色検出器の検出器信号を含んでいてもよい。   The evaluation device may be configured to generate at least two color coordinates, preferably at least three color coordinates, each color coordinate divided by a normalized value of one signal of the spectrally sensitive optical sensor. To be determined. As an example, the normalized value may include the sum of all spectrally sensitive optical sensor signals. Alternatively or alternatively, the normalized value may include the detector signal of the white detector.

上記少なくとも1つの色情報には、色座標を含んでいてもよい。一例として、上記少なくとも1つの色情報には、CIE座標を含んでいてもよい。   The at least one color information may include color coordinates. As an example, the at least one color information may include CIE coordinates.

好ましくは少なくとも2つ、より好ましくは少なくとも3つのスペクトル感応光学センサのほか、スタックは、少なくとも1つの白色検出器をさらに備えていてもよく、この白色検出器は、すべてのスペクトル感応検出器の吸収域の光を吸収するように構成されていてもよい。これにより、一例として、白色検出器は、可視スペクトル域全体の光を吸収する吸収スペクトルを有していてもよい。   Preferably, in addition to at least two, more preferably at least three spectrally sensitive optical sensors, the stack may further comprise at least one white detector, which is the absorption of all spectrally sensitive detectors. It may be configured to absorb the light in the region. Thereby, as an example, the white detector may have an absorption spectrum that absorbs light in the entire visible spectrum region.

スペクトル感応光学センサはそれぞれ、可視スペクトル域、紫外スペクトル域、および赤外スペクトル域のうちの1つまたは複数の光を不均一な吸収スペクトルで吸収するように構成された少なくとも1つの色素を含んでいてもよい。一例として、色素はそれぞれ、少なくとも1つの吸収ピークを有する吸収スペクトルを有していてもよい。骨格材料(たとえば、TiO)上の固体、フィルム、または増感剤として、吸収ピークは、可視、赤外、または紫外スペクトル域のうちの1つまたは複数の全体で吸収する色素の使用等によって広げることができる半値全幅(FWHM)または300nm以下、好ましくは200nm以下、より好ましくは80nm以下、60nm以下、もしくは40nm以下のFWHMを有する色素の使用等によって狭めることができるFWHM等の幅を有していてもよい。各色素の吸収ピークは、少なくとも60nm、好ましくは少なくとも80nm、より好ましくは少なくとも100nmだけ離間していてもよい。また、他の実施形態も実現可能である。 Each of the spectrally sensitive optical sensors includes at least one dye configured to absorb one or more of the light in the visible spectral region, the ultraviolet spectral region, and the infrared spectral region with a non-uniform absorption spectrum. May be. As an example, each dye may have an absorption spectrum having at least one absorption peak. As a solid, film, or sensitizer on a framework material (eg, TiO 2 ), the absorption peak may be due to the use of a dye that absorbs across one or more of the visible, infrared, or ultraviolet spectral regions, etc. Full width at half maximum (FWHM) or 300 nm or less, preferably 200 nm or less, more preferably 80 nm or less, 60 nm or less, or width such as FWHM that can be narrowed by using a dye having a FWHM of 40 nm or less It may be. The absorption peaks of each dye may be separated by at least 60 nm, preferably at least 80 nm, more preferably at least 100 nm. Other embodiments are also possible.

上記概説の通り、検出器が複数の光学センサを備える場合、これらの光学センサは、好ましくはスタック配置されていてもよい。複数の光学センサが設けられている場合、これらの光学センサは、同一であってもよいし、幾何学的特性、装置構成の特性、または上記概説の通り、スペクトル感度等、少なくとも1つの特性に関して、これら光学センサのうちの少なくとも2つが異なっていてもよい。   As outlined above, if the detector comprises a plurality of optical sensors, these optical sensors may preferably be arranged in a stack. Where a plurality of optical sensors are provided, these optical sensors may be the same, and with respect to at least one characteristic, such as geometric characteristics, device configuration characteristics, or spectral sensitivity as outlined above. , At least two of these optical sensors may be different.

一例として、上記概説の通り、複数の光学センサは、赤色スペクトル域(R)における感度を有する光学センサ、緑色スペクトル域(G)におけるスペクトル感度を有する光学センサ、および青色スペクトル域(B)におけるスペクトル感度を有する光学センサ等、異なるスペクトル感度を与えていてもよい。上記概説の通り、異なるスペクトル感度は、スペクトル感度が異なる吸収材料の提供ならびに/または1つもしくは複数の波長選択要素の提供等、さまざまな手段によって提供可能である。このため、光学センサのスタックおよび/または複数の光学センサの別の配置においては、スペクトル感度が異なる光学センサのさまざまな組み合わせが与えられていてもよい。一例としては、所与の順序または異なる順序のRGBスタックが設けられていてもよい。この追加または代替として、スペクトル感度が異なる光学センサのセンサ信号の比率の評価等によって色情報を導出するのに、スペクトル感度が異なる2つの光学センサがあれば十分な場合がある。   As an example, as outlined above, the plurality of optical sensors includes an optical sensor having sensitivity in the red spectral range (R), an optical sensor having spectral sensitivity in the green spectral range (G), and a spectrum in the blue spectral range (B). Different spectral sensitivities, such as sensitive optical sensors, may be provided. As outlined above, different spectral sensitivities can be provided by various means, such as providing absorbing materials with different spectral sensitivities and / or providing one or more wavelength selective elements. Thus, various combinations of optical sensors with different spectral sensitivities may be provided in different arrangements of optical sensor stacks and / or optical sensors. As an example, RGB stacks in a given or different order may be provided. In addition to or as an alternative, two optical sensors with different spectral sensitivities may be sufficient to derive color information, such as by evaluating the ratio of sensor signals of optical sensors with different spectral sensitivities.

さらに、複数の光学センサが設けられている場合、これら複数の光学センサは、装置構成および/または使用材料に関して異なっていてもよい。具体的に、光学センサは、性質が有機か無機かで異なっていてもよい。したがって、上記複数の光学センサ、より具体的にはスタックは、1つもしくは複数の有機光学センサ、1つもしくは複数の無機光学センサ、1つもしくは複数の混成有機−無機光学センサ、またはこれら光学センサのうちの少なくとも2つの任意の組み合わせを含んでいてもよい。これにより、一例として、スタックは、有機光学センサのみから成っていてもよいし、無機光学センサのみから成っていてもよいし、混成有機−無機光学センサのみから成っていてもよい。この追加または代替として、スタックは、少なくとも1つの有機光学センサおよび少なくとも1つの無機光学センサを備えていてもよいし、少なくとも1つの有機光学センサおよび少なくとも1つの混成有機−無機光学センサを備えていてもよいし、少なくとも1つの無機光学センサおよび少なくとも1つの混成有機−無機光学センサを備えていてもよい。スタックは、好ましくは少なくとも1つの有機光学センサを備えていてもよく、さらに、好ましくは、スタックの、物体から最も遠い側に、少なくとも1つの無機光学センサを備えていてもよい。これにより、一例として、より詳しく以下に概説する通り、スタックは、少なくとも1つのDSCまたはsDSC等の少なくとも1つの有機光学センサを備えていてもよく、さらに、より好ましくは、スタックの、物体から最も遠い側に、CCDまたはCMOSセンサチップ等の少なくとも1つの無機センサを備えていてもよい。   Furthermore, when a plurality of optical sensors are provided, the plurality of optical sensors may differ with respect to the device configuration and / or the materials used. Specifically, the optical sensor may have different properties depending on whether it is organic or inorganic. Accordingly, the plurality of optical sensors, more specifically the stack, includes one or more organic optical sensors, one or more inorganic optical sensors, one or more hybrid organic-inorganic optical sensors, or these optical sensors. Any combination of at least two of these may be included. Thereby, as an example, the stack may be composed of only an organic optical sensor, may be composed of only an inorganic optical sensor, or may be composed of only a hybrid organic-inorganic optical sensor. In addition or as an alternative, the stack may comprise at least one organic optical sensor and at least one inorganic optical sensor, or may comprise at least one organic optical sensor and at least one hybrid organic-inorganic optical sensor. Alternatively, at least one inorganic optical sensor and at least one hybrid organic-inorganic optical sensor may be provided. The stack may preferably comprise at least one organic optical sensor and may further comprise at least one inorganic optical sensor, preferably on the side of the stack furthest from the object. Thereby, as an example, as will be outlined in more detail below, the stack may comprise at least one organic optical sensor, such as at least one DSC or sDSC, and more preferably, most from the object of the stack. At least one inorganic sensor such as a CCD or CMOS sensor chip may be provided on the far side.

さらに、複数の光学センサが設けられている場合、これらの光学センサは、それぞれの透明性に関して異なっていてもよい。これにより、一例としては、すべての光学センサの全部または一部が透明であってもよい。あるいは、すべての光学センサの全部または一部が不透明(遮光性とも称する)であってもよい。さらに、具体的には複数の光学センサがスタックとして配置されている場合は、少なくとも1つの少なくとも部分的に透明な光学センサと少なくとも1つの少なくとも部分的に不透明な光学センサとの組み合わせを使用するようにしてもよい。したがって、スタックは、1つまたは複数の透明な光学センサを備えていてもよく、さらに、好ましくは、スタックの、物体から最も遠い側に、少なくとも1つの不透明な光学センサを備えていてもよい。このため、上記概説の通り、1つまたは複数の透明なDSCまたはsDSC等の1つまたは複数の透明な有機光学センサを用いて、1つまたは複数の少なくとも部分的に透明な光学センサが設けられていてもよい。この追加または代替として、極薄の無機光学センサまたは入射光線の少なくとも一部が透過するようにバンドギャップが設計された無機光学センサ等の無機センサを用いることにより、少なくとも部分的に透明な光学センサが設けられていてもよい。また、不透明な電極ならびに/または有機および/もしくは無機材料等の不透明な吸収材料を用いて、不透明な光学センサが設けられていてもよい。一例としては、厚さが50nm超、好ましくは100nm超の金属電極等、厚い金属電極を有する有機光学センサが設けられていてもよい。この追加または代替として、不透明な半導体材料を有する無機光学センサが設けられていてもよい。一例として、通常のCCDまたはCMOSカメラチップは、不透明な特性を与える。また、一例として、スタックは、1つまたは複数の少なくとも部分的に透明なDSCまたはsDSCと、物体から最も遠い側に、不透明なCMOSまたはCCDチップとを備えていてもよい。また、他の実施形態も実現可能である。   Furthermore, when a plurality of optical sensors are provided, these optical sensors may be different with respect to their transparency. Thereby, as an example, all or part of all the optical sensors may be transparent. Alternatively, all or a part of all the optical sensors may be opaque (also referred to as light shielding property). Furthermore, in particular when a plurality of optical sensors are arranged as a stack, a combination of at least one at least partially transparent optical sensor and at least one at least partially opaque optical sensor is used. It may be. Thus, the stack may comprise one or more transparent optical sensors, and may further comprise at least one opaque optical sensor, preferably on the side of the stack furthest from the object. Thus, as outlined above, one or more at least partially transparent optical sensors are provided using one or more transparent organic optical sensors such as one or more transparent DSCs or sDSCs. It may be. In addition or as an alternative, at least partially transparent optical sensors by using inorganic sensors such as ultra-thin inorganic optical sensors or inorganic optical sensors with a band gap designed to transmit at least part of the incident light May be provided. Further, an opaque optical sensor may be provided using an opaque electrode and / or an opaque absorbing material such as an organic and / or inorganic material. As an example, an organic optical sensor having a thick metal electrode such as a metal electrode having a thickness of more than 50 nm, preferably more than 100 nm may be provided. In addition or as an alternative, an inorganic optical sensor with an opaque semiconductor material may be provided. As an example, a normal CCD or CMOS camera chip provides opaque characteristics. As an example, the stack may also include one or more at least partially transparent DSCs or sDSCs and an opaque CMOS or CCD chip on the side farthest from the object. Other embodiments are also possible.

上記概説の通り、検出器は、少なくとも1つの伝達装置をさらに備えていてもよい。伝達装置は、好ましくは物体と検出器との間の光路に位置決めされていてもよい。本明細書において、伝達装置は一般的に、光学センサ上へ光線を案内するように構成された任意の光学素子である。この案内は、光線の未修正の特性により行われるようになっていてもよいし、結像または修正特性により行われるようになっていてもよい。したがって、一般的に、伝達装置は、結像特性および/またはビーム成形特性を有していてもよい。すなわち、光線が該伝達装置を通過する際に、ビームウェストおよび/または光線の拡がり角および/または光線の断面の形状が変化するようになっていてもよい。一例として、伝達装置は、レンズおよびミラーから成る群から選択される1つまたは複数の要素を備えていてもよい。ミラーは、平面ミラー、凸面ミラー、および凹面ミラーから成る群から選択されるようになっていてもよい。この追加または代替として、1つまたは複数のプリズムが備わっていてもよい。また、この追加または代替として、1つもしくは複数のフィルタ、具体的にはカラーフィルタならびに/または1つもしくは複数のダイクロイックミラー等、1つまたは複数の波長選択要素が備わっていてもよい。さらに、この追加または代替として、伝達装置は、1つもしくは複数のピンホールダイヤフラムおよび/または虹彩ダイヤフラム等、1つまたは複数のダイヤフラムを備えていてもよい。   As outlined above, the detector may further comprise at least one transmission device. The transmission device may preferably be positioned in the optical path between the object and the detector. As used herein, a transmission device is generally any optical element configured to guide a light beam onto an optical sensor. This guidance may be performed by an uncorrected characteristic of the light beam, or may be performed by an image forming or correcting characteristic. Thus, in general, the transmission device may have imaging properties and / or beam shaping properties. That is, when the light beam passes through the transmission device, the beam waist and / or the divergence angle of the light beam and / or the cross-sectional shape of the light beam may be changed. As an example, the transmission device may comprise one or more elements selected from the group consisting of lenses and mirrors. The mirror may be selected from the group consisting of a plane mirror, a convex mirror, and a concave mirror. In addition or as an alternative, one or more prisms may be provided. This addition or alternative may also comprise one or more wavelength selection elements, such as one or more filters, in particular a color filter and / or one or more dichroic mirrors. Furthermore, as an addition or alternative, the transmission device may comprise one or more diaphragms, such as one or more pinhole diaphragms and / or iris diaphragms.

伝達装置は、たとえば1つまたは複数のミラーおよび/またはビームスプリッタおよび/またはビーム偏向要素を備えることにより、電磁放射の方向に影響を及ぼすことができる。この代替または追加として、伝達装置は、収束レンズおよび/または発散レンズの効果を有し得る1つまたは複数の結像要素を備えることができる。一例として、この任意選択としての伝達装置は、1つもしくは複数のレンズならびに/または1つもしくは複数の凸ミラーおよび/もしくは凹ミラーを有することができる。再度、この代替または追加として、伝達装置は、少なくとも1つの光学フィルタ等の少なくとも1つの波長選択要素を有することができる。また、この代替または追加として、伝達装置は、たとえばセンサ領域、特にセンサエリアの位置において、既定のビームプロファイルを電磁放射に与えるように設計可能である。上記任意選択としての伝達装置の任意選択としての実施形態は、原理上、個別または任意所望の組み合わせにて実現可能である。一例として、上記少なくとも1つの伝達装置は、検出器の前方、すなわち、検出器の、物体に対向する側に位置決めされていてもよい。   The transmission device can influence the direction of the electromagnetic radiation, for example by comprising one or more mirrors and / or beam splitters and / or beam deflection elements. As an alternative or in addition, the transmission device may comprise one or more imaging elements that may have the effect of a converging lens and / or a diverging lens. As an example, this optional transmission device can have one or more lenses and / or one or more convex and / or concave mirrors. Again, as an alternative or addition, the transmission device can have at least one wavelength selection element, such as at least one optical filter. Also as an alternative or addition, the transmission device can be designed to give a predetermined beam profile to the electromagnetic radiation, for example in the sensor area, in particular in the position of the sensor area. The optional embodiments of the optional transmission device can in principle be realized individually or in any desired combination. As an example, the at least one transmission device may be positioned in front of the detector, ie on the side of the detector facing the object.

物体の少なくとも1つの縦方向座標のほか、物体の少なくとも1つの横方向座標が決定されるようになっていてもよい。したがって、一般的に、評価装置は、画素のマトリクス上での光線の位置を決定することにより、物体の少なくとも1つの横方向座標を決定するようにさらに構成されていてもよい。この追加または代替として、光学センサのスタックを通る照射の中心の追跡等によって、光線のビーム経路に追従することにより、物体の横方向位置に関する少なくとも1つの情報を導出するようにしてもよい。   In addition to at least one longitudinal coordinate of the object, at least one lateral coordinate of the object may be determined. Thus, in general, the evaluation device may be further configured to determine at least one lateral coordinate of the object by determining the position of the ray on the matrix of pixels. In addition or as an alternative, at least one piece of information about the lateral position of the object may be derived by following the beam path of the light, such as by tracking the center of illumination through the stack of optical sensors.

照射の中心の決定の一例として、評価装置は、光線による少なくとも1つのマトリクスの照射の中心を決定するように構成されていてもよく、物体の少なくとも1つの横方向座標は、照射の中心の少なくとも1つの座標を評価することによって決定される。したがって、照射の中心の座標は、照射の中心の画素座標であってもよい。一例として、マトリクスは、画素の行および列を備えていてもよく、マトリクスにおける光線の行番号および/または光線の中心によってx座標が与えられ、マトリクスにおける光線の列番号および/または光線の中心によってy座標が与えられるようになっていてもよい。   As an example of determining the center of illumination, the evaluation device may be configured to determine the center of illumination of at least one matrix by the light beam, wherein at least one lateral coordinate of the object is at least of the center of illumination. Determined by evaluating one coordinate. Therefore, the coordinates of the center of irradiation may be pixel coordinates of the center of irradiation. As an example, the matrix may comprise rows and columns of pixels, given the x coordinate by the row number and / or the center of the ray in the matrix, depending on the column number and / or the center of the ray in the matrix. A y coordinate may be given.

x座標および/またはy座標等の1つまたは複数の横方向座標を与えることにより、評価装置は、物体の少なくとも1つの3次元位置を与えるように構成されている。この追加または代替として、上記概説の通り、評価装置は、シーンの3次元画像を取得するように構成されていてもよい。具体的に、評価装置は、検出器により取得されたシーンの少なくとも1つの3次元画像を提供するように構成されていてもよい。   By providing one or more lateral coordinates, such as x-coordinate and / or y-coordinate, the evaluation device is configured to provide at least one three-dimensional position of the object. Alternatively or alternatively, as outlined above, the evaluation device may be configured to acquire a three-dimensional image of the scene. Specifically, the evaluation device may be configured to provide at least one three-dimensional image of the scene acquired by the detector.

本発明の別の選択肢は、上記少なくとも1つの光学センサの可能な実施形態を表す。一般的には、CCDチップおよび/またはCMOSチップ等の無機半導体センサ装置、有機半導体センサ装置から成る群から選択される光学センサ装置等、画素のマトリクスを有する任意の光学センサ装置を使用する。後者の場合、一例として、光学センサは、たとえば画素のマトリクスを有する少なくとも1つの有機光起電装置を備えていてもよい。本明細書において、有機光起電装置は一般的に、少なくとも1つの有機感光要素および/または少なくとも1つの有機層を有する装置を表す。ここで、一般的には、有機太陽電池および/または少なくとも1つの有機感光層を有する任意の装置等、任意の種類の有機光起電装置を使用するようにしてもよい。一例としては、有機太陽電池および/または色素増感有機太陽電池が備わっていてもよい。さらに、無機−有機光起電装置等の混成装置を使用するようにしてもよい。検出器は、1つもしくは複数の有機光起電装置を備えることならびに/または1つもしくは複数の無機光起電装置を備えることならびに/または1つもしくは複数の有機光起電装置および1つもしくは複数の無機光起電装置から成る組み合わせを備えることが可能である。   Another option of the invention represents a possible embodiment of the at least one optical sensor. In general, any optical sensor device having a matrix of pixels, such as an inorganic semiconductor sensor device such as a CCD chip and / or a CMOS chip, an optical sensor device selected from the group consisting of organic semiconductor sensor devices is used. In the latter case, as an example, the optical sensor may comprise at least one organic photovoltaic device having a matrix of pixels, for example. As used herein, an organic photovoltaic device generally refers to a device having at least one organic photosensitive element and / or at least one organic layer. Here, in general, any type of organic photovoltaic device may be used, such as an organic solar cell and / or any device having at least one organic photosensitive layer. As an example, an organic solar cell and / or a dye-sensitized organic solar cell may be provided. Furthermore, a hybrid device such as an inorganic-organic photovoltaic device may be used. The detector comprises one or more organic photovoltaic devices and / or comprises one or more inorganic photovoltaic devices and / or one or more organic photovoltaic devices and one or more It is possible to provide a combination of a plurality of inorganic photovoltaic devices.

光学センサは具体的に、少なくとも1つのパターン化電極を有する少なくとも1つの色素増感太陽電池を備えていてもよい。色素増感太陽電池の可能な実施形態については、国際公開第2012/110924A1号明細書、米国仮特許出願第61/739,173号明細書および米国仮特許出願第61/749,964号明細書を参照可能である。これらに開示されている色素増感太陽電池、具体的にはこれらに開示されている光学センサの装置構成は一般的に、本発明にも適用可能である。ただし、複数の画素を提供するため、これら色素増感太陽電池の電極のうちの少なくとも1つがパターン化されている。これにより、一例としては、上記文献に開示されている色素増感太陽電池の第1および第2の電極の一方または両方がパターン化されていてもよい。一例としては、第1の電極がパターン化によって複数の平行な水平ストライプを提供し、第2の電極がパターン化によって複数の平行な垂直ストライプを提供していてもよいし、この逆であってもよい。これにより、第1の電極のストライプと第2の電極のストライプとの各交差点において、各電極ストライプの電気的接触ならびに電流および/もしくは電圧の測定により読み出し可能な画素が設けられていてもよい。   The optical sensor may specifically comprise at least one dye-sensitized solar cell having at least one patterned electrode. Possible embodiments of dye-sensitized solar cells are described in WO 2012 / 110924A1, US provisional patent application 61 / 739,173 and US provisional patent application 61 / 749,964. Can be referred to. The device configurations of the dye-sensitized solar cells disclosed therein, specifically, the optical sensors disclosed therein are generally applicable to the present invention. However, at least one of the electrodes of the dye-sensitized solar cell is patterned to provide a plurality of pixels. Thereby, as an example, one or both of the first and second electrodes of the dye-sensitized solar cell disclosed in the above document may be patterned. As an example, the first electrode may provide a plurality of parallel horizontal stripes by patterning and the second electrode may provide a plurality of parallel vertical stripes by patterning, and vice versa. Also good. Thus, pixels that can be read out by electrical contact of each electrode stripe and measurement of current and / or voltage may be provided at each intersection of the stripe of the first electrode and the stripe of the second electrode.

光学センサは具体的に、少なくとも1つの第1の電極と、少なくとも1つのn半導体金属酸化物と、少なくとも1つの色素と、少なくとも1つのp半導体有機材料、好ましくは固体p半導体有機材料と、少なくとも1つの第2の電極とを備え、上記少なくとも1つのn半導体金属酸化物、少なくとも1つの色素、および少なくとも1つのp半導体有機材料が、第1の電極と第2の電極との間に埋め込まれていてもよい。   The optical sensor specifically comprises at least one first electrode, at least one n semiconductor metal oxide, at least one dye, at least one p semiconductor organic material, preferably a solid p semiconductor organic material, and at least One at least one n-semiconductor metal oxide, at least one dye, and at least one p-semiconductor organic material embedded between the first electrode and the second electrode. It may be.

上述するとともにより詳しく以下に概説する通り、一般的に、第1の電極、少なくとも1つのn半導体金属酸化物、少なくとも1つの色素、少なくとも1つのp半導体有機材料、および少なくとも1つの第2の電極に使用可能な材料または層組み合わせの可能な実施形態については、上述の国際公開第2012/110924A1号明細書のほか、2012年12月19日に出願された米国仮特許出願第61/739,173号明細書、および2013年1月8日に出願された米国仮特許出願第61/749,964号明細書を参照可能である。さらに、他の実施形態も実現可能である。これにより、一例として、n半導体金属酸化物は、金属酸化物のナノ多孔質層と、金属酸化物の高密度層とを備えていてもよい。金属酸化物は、好ましくは二酸化チタンであってもよいし、二酸化チタンを含んでいてもよい。可能な色素については、色素ID504等、上述の文献に記載の色素を参照可能である。さらに、可能なp半導体有機材料に関しては、一例として、上述の文献のうちの1つまたは複数に開示の通り、スピロMeOTADを使用するようにしてもよい。同様に、可能な電極材料については、透明であっても不透明であっても、これらの文献を参照可能である。上記概説の通り、他の実施形態も実現可能である。   As described above and outlined in more detail below, generally a first electrode, at least one n semiconductor metal oxide, at least one dye, at least one p semiconductor organic material, and at least one second electrode Possible embodiments of materials or layer combinations that can be used for the above are described in the above-mentioned International Publication No. 2012 / 110924A1 as well as US Provisional Patent Application No. 61 / 739,173 filed on Dec. 19, 2012. And US Provisional Patent Application No. 61 / 749,964, filed Jan. 8, 2013. Furthermore, other embodiments are possible. Thereby, as an example, the n semiconductor metal oxide may include a nanoporous layer of metal oxide and a high-density layer of metal oxide. The metal oxide may preferably be titanium dioxide or may contain titanium dioxide. For possible dyes, the dyes described in the above-mentioned documents such as the dye ID 504 can be referred to. Furthermore, for possible p-semiconductor organic materials, as an example, spiro MeOTAD may be used as disclosed in one or more of the above-mentioned documents. Similarly, for possible electrode materials, reference can be made to these documents, whether transparent or opaque. As outlined above, other embodiments are possible.

第1の電極および第2の電極の両者は、透明であってもよい。ただし、他の電極構成についても可能である。   Both the first electrode and the second electrode may be transparent. However, other electrode configurations are possible.

上記概説の通り、第1の電極および第2の電極の少なくとも一方がパターン化電極であるのが好ましい。これにより、一例として、第1の電極および第2の電極の一方または両方は、水平な電極ストライプおよび/または垂直な電極ストライプ等、複数の電極ストライプを備えていてもよい。本発明の背景においても使用可能な画素化された光学センサの一例としては、欧州特許出願第13171898.3号明細書を参照可能であり、その全内容を本明細書中に援用する。さらに、画素化された他の光学センサを使用するようにしてもよい。   As outlined above, at least one of the first electrode and the second electrode is preferably a patterned electrode. Thereby, as an example, one or both of the first electrode and the second electrode may include a plurality of electrode stripes such as a horizontal electrode stripe and / or a vertical electrode stripe. As an example of a pixelated optical sensor that can also be used in the context of the present invention, reference can be made to European Patent Application No. 13171898.3, the entire content of which is incorporated herein. Furthermore, another pixelated optical sensor may be used.

一例としては、上記概説の通り、第1の電極が複数の電極ストライプを備え、第2の電極が複数の電極ストライプを備えていてもよく、第1の電極の電極ストライプは、第2の電極の電極ストライプに対して垂直に配向している。上記概説の通り、第1の電極の電極ストライプと第2の電極の電極ストライプとの各交差点においては、独立して読み出し可能な画素が形成されている。   As an example, as outlined above, the first electrode may include a plurality of electrode stripes, the second electrode may include a plurality of electrode stripes, and the electrode stripe of the first electrode may be the second electrode. Is oriented perpendicular to the electrode stripes. As outlined above, independently readable pixels are formed at each intersection of the electrode stripe of the first electrode and the electrode stripe of the second electrode.

検出器は、第1の電極の電極ストライプのうちの1つに接触するとともに第2の電極の電極ストライプのうちの1つに接触して、ストライプを流れる電流の測定および/または各ストライプの電圧の測定を行うように構成された読み出し電子機器等、適当な読み出し電子機器をさらに備えていてもよい。また、画素の読み出しのため、順次読み出し方式および/または多重化方式が選定されるようになっていてもよい。これにより、一例としては、1つの行のすべての画素を同時に読み出した後、マトリクスの次の行に切り替わって、すべての画素行を順次読み出すようにしてもよい。あるいは、行多重化を選定することによって、1つの列のすべての画素を自発的に読み出した後、次の列に切り替わるようにしてもよい。ただし、複数のトランジスタを用いた読み出し方式等、他の読み出し方式も可能である。一般的には、受動的なマトリクス読み出し方式および/または能動的なマトリクス読み出し方式を使用するようにしてもよい。使用可能な読み出し方式の一例としては、米国特許出願第2007/0080925A1号明細書を参照可能である。また、他の読み出し方式も実現可能である。   The detector contacts one of the electrode stripes of the first electrode and contacts one of the electrode stripes of the second electrode to measure the current flowing through the stripe and / or the voltage of each stripe. An appropriate readout electronic device such as a readout electronic device configured to perform the above measurement may be further provided. Further, a sequential readout method and / or a multiplexing method may be selected for pixel readout. Thus, as an example, all the pixels in one row may be read simultaneously, and then the next row of the matrix may be switched to sequentially read out all the pixel rows. Alternatively, by selecting row multiplexing, all pixels in one column may be read out spontaneously and then switched to the next column. However, other readout methods such as a readout method using a plurality of transistors are possible. In general, a passive matrix readout scheme and / or an active matrix readout scheme may be used. As an example of a usable readout method, reference can be made to US Patent Application No. 2007 / 0080925A1. Other reading methods can also be realized.

可能な電極材料については、国際公開第2012/110924A1号明細書、米国仮特許出願第61/739,173号明細書および米国仮特許出願第61/749,964号明細書を参照可能である。また、他の実施形態も可能である。具体的には、第1の電極および第2の電極の少なくとも一方が導電性ポリマーを含んでいてもよい。具体的には、透明な導電性ポリマーを使用するようにしてもよい。導電性ポリマーの可能な実施形態については、上記文献を参照可能である。   For possible electrode materials, reference may be made to WO 2012/110924 A1, US provisional patent application 61 / 739,173 and US provisional patent application 61 / 749,964. Other embodiments are also possible. Specifically, at least one of the first electrode and the second electrode may contain a conductive polymer. Specifically, a transparent conductive polymer may be used. Reference is made to the above documents for possible embodiments of the conductive polymer.

ただし、本発明においては、複数の画素を有するその他任意の種類の光学センサ、好ましくは透明な光学センサを使用可能であることに留意するものとする。   However, it should be noted that any other type of optical sensor having a plurality of pixels, preferably a transparent optical sensor, can be used in the present invention.

本発明の別の態様においては、少なくとも1つの物体の位置を決定する検出システムが開示される。検出システムは、上記実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する実施形態のうちの1つもしくは複数に開示の少なくとも1つの検出器等、本発明に係る少なくとも1つの検出器を備える。   In another aspect of the invention, a detection system for determining the position of at least one object is disclosed. A detection system comprises at least one detection according to the invention, such as one or more of the above embodiments and / or at least one detector disclosed in one or more of the embodiments disclosed in more detail below. Equipped with a bowl.

検出システムは、少なくとも1つの光線を検出器へと案内するように構成された少なくとも1つのビーコンデバイスをさらに備える。本明細書においては、より詳しく以下に開示する通り、ビーコンデバイスは一般的に、少なくとも1つの光線を検出器へと案内するように構成された任意の装置を表す。ビーコンデバイスは、光線を発する少なくとも1つの照射光源を備えた能動ビーコンデバイスとして、全部または一部が具現化されていてもよい。この追加または代替として、ビーコンデバイスは、生成された主光線を該ビーコンデバイスから検出器へと独立して反射するように構成された少なくとも1つの反射要素を備えた受動ビーコンデバイスとして、全部または一部が具現化されていてもよい。   The detection system further comprises at least one beacon device configured to guide at least one light beam to the detector. As disclosed herein in more detail below, a beacon device generally represents any device configured to guide at least one light beam to a detector. The beacon device may be embodied in whole or in part as an active beacon device with at least one illumination source that emits light. In addition or as an alternative, the beacon device may be all or one as a passive beacon device with at least one reflective element configured to independently reflect the generated chief ray from the beacon device to the detector. The part may be embodied.

ビーコンデバイスは、物体への取り付け、物体による保持、および物体への組み込みのうちの少なくとも1つが可能であってもよい。したがって、ビーコンデバイスは、1つまたは複数の接続要素等の任意の取り付け手段によって物体に取り付けられていてもよい。この追加または代替として、物体は、1つまたは複数の適当な保持手段等によって、ビーコンデバイスを保持するように構成されていてもよい。さらに、この追加または代替として、ビーコンデバイスは、全部または一部が物体に組み込まれることにより、物体の一部または物体そのものを構成していてもよい。   The beacon device may be capable of at least one of attachment to the object, retention by the object, and incorporation into the object. Thus, the beacon device may be attached to the object by any attachment means such as one or more connecting elements. Alternatively or alternatively, the object may be configured to hold the beacon device, such as by one or more suitable holding means. Further, as an addition or alternative, the beacon device may constitute a part of the object or the object itself by being entirely or partially incorporated into the object.

一般的に、ビーコンデバイスの可能な実施形態に関しては、2012年12月19日に出願された米国仮特許出願第61/739,173号明細書および2013年1月8日に出願された米国仮特許出願第61/749,964号明細書のうちの1つまたは複数を参照可能である。さらに、他の実施形態も実現可能である。   In general, regarding possible embodiments of beacon devices, US Provisional Patent Application No. 61 / 739,173 filed on December 19, 2012 and US Provisional Application filed on January 8, 2013 are discussed. Reference may be made to one or more of patent application 61 / 749,964. Furthermore, other embodiments are possible.

上記概説の通り、ビーコンデバイスは、全部または一部が能動ビーコンデバイスとして具現化されていてもよく、少なくとも1つの照射光源を備えていてもよい。これにより、一例として、ビーコンデバイスは、発光ダイオード(LED)、電球、白熱灯、および蛍光灯から成る群から選択される照射光源等、大略任意の照射光源を備えていてもよい。また、他の実施形態も実現可能である。   As outlined above, the beacon device may be embodied in whole or in part as an active beacon device and may include at least one illumination light source. Thereby, as an example, the beacon device may include a substantially arbitrary irradiation light source such as an irradiation light source selected from the group consisting of a light emitting diode (LED), a light bulb, an incandescent lamp, and a fluorescent lamp. Other embodiments are also possible.

この追加または代替として、上記概説の通り、ビーコンデバイスは、全部または一部が受動ビーコンデバイスとして具現化されていてもよく、照射光源が発する主光線を物体から独立して反射するように構成された少なくとも1つの反射装置を備えていてもよい。このため、光線の生成の追加または代替として、ビーコンデバイスは、主光線を検出器へと反射するように構成されていてもよい。   In addition or as an alternative, as outlined above, the beacon device may be embodied in whole or in part as a passive beacon device and is configured to reflect chief rays emitted by the illumination source independently of the object. Further, at least one reflection device may be provided. Thus, as an addition or alternative to ray generation, the beacon device may be configured to reflect the chief ray back to the detector.

検出システムは、1つ、2つ、または3つ以上のビーコンデバイスを備えていてもよい。したがって、一般的に、物体が剛性物体のため少なくとも顕微鏡レベルでは形状が変化しない場合は、好ましくは少なくとも2つのビーコンデバイスを使用するようにしてもよい。物体の全部または一部が柔軟であるか、または形状を変化するように構成されている場合は、好ましくは3つ以上のビーコンデバイスを使用するようにしてもよい。一般的に、ビーコンデバイスの数は、物体の柔軟性に適応していてもよい。検出システムは、少なくとも3つのビーコンデバイスを備えるのが好ましい。   The detection system may comprise one, two, three or more beacon devices. Thus, in general, at least two beacon devices may preferably be used if the object is rigid and does not change shape at least at the microscope level. If all or part of the object is flexible or configured to change shape, preferably more than two beacon devices may be used. In general, the number of beacon devices may be adapted to the flexibility of the object. The detection system preferably comprises at least three beacon devices.

物体は一般的に、生物であってもよいし、無生物であってもよい。検出システムは、上記少なくとも1つの物体を含んでいてもよく、これにより、該物体が検出システムの一部を構成していてもよい。ただし、物体は、好ましくは少なくとも1つの空間次元において、検出器から独立して移動するようになっていてもよい。   In general, an object may be a living organism or an inanimate object. The detection system may include the at least one object, which may form part of the detection system. However, the object may be adapted to move independently from the detector, preferably in at least one spatial dimension.

物体は一般的に、任意の物体であってもよい。一実施形態において、物体は、剛性物体であってもよい。物体が非剛性物体である実施形態または物体の形状が変化し得る実施形態等、他の実施形態も実現可能である。   The object may generally be any object. In one embodiment, the object may be a rigid object. Other embodiments are also feasible, such as embodiments where the object is a non-rigid object or where the shape of the object can change.

より詳しく以下に概説する通り、本発明は具体的に、機械の制御、ゲーム、またはスポーツのシミュレーション等を目的として、人物の位置および/または動きの追跡に使用するようにしてもよい。本実施形態または他の実施形態において、物体は具体的に、好ましくはラケット、クラブ、バット、から成る群から選択される物品であるスポーツ用品、衣類、帽子、靴、から成る群から選択されるようになっていてもよい。   As outlined in more detail below, the present invention may be specifically used to track a person's position and / or movement for purposes such as machine control, gaming, or sports simulation. In this or other embodiments, the object is specifically selected from the group consisting of sports equipment, clothing, hats, shoes, preferably articles selected from the group consisting of rackets, clubs, bats. It may be like this.

本発明のさらに別の態様においては、ユーザと機械との間で少なくとも1つの情報を交換するマンマシンインターフェースが開示される。このマンマシンインターフェースは、上記開示の実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する実施形態のうちの1つもしくは複数等、本発明に係る少なくとも1つの検出システムを備える。ビーコンデバイスは、ユーザへの直接的または間接的な取り付けおよびユーザによる保持のうちの少なくとも1つが行われるように構成されている。マンマシンインターフェースは、検出システムによってユーザの少なくとも1つの位置を決定するように設計されている。また、マンマシンインターフェースは、位置に少なくとも1つの情報を割り当てるように設計されている。   In yet another aspect of the invention, a man-machine interface is disclosed for exchanging at least one information between a user and a machine. The man-machine interface comprises at least one detection system according to the present invention, such as one or more of the embodiments disclosed above and / or one or more of the embodiments disclosed in more detail below. The beacon device is configured to perform at least one of direct or indirect attachment to the user and retention by the user. The man machine interface is designed to determine at least one position of the user by the detection system. The man-machine interface is also designed to assign at least one piece of information to the location.

本発明のさらに別の態様においては、少なくとも1つの娯楽機能を実行する娯楽装置が開示される。この娯楽装置は、本発明に係る少なくとも1つのマンマシンインターフェースを備える。さらに、娯楽装置は、マンマシンインターフェースによって、プレーヤが少なくとも1つの情報を入力できるように設計されている。また、娯楽装置は、この情報に従って娯楽機能を変更するようにさらに設計されている。   In yet another aspect of the present invention, an entertainment device that performs at least one entertainment function is disclosed. This entertainment device comprises at least one man-machine interface according to the present invention. Furthermore, the entertainment device is designed to allow a player to input at least one piece of information via a man-machine interface. The entertainment device is further designed to change the entertainment function according to this information.

本発明のさらに別の態様においては、少なくとも1つの可動物体の位置を追跡する追跡システムが開示される。この追跡システムは、上記開示の実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する実施形態のうちの1つもしくは複数等、本発明に係る少なくとも1つの検出システムを備える。追跡システムは、少なくとも1つの追跡制御装置をさらに備え、該追跡制御装置が、特定の時点における物体の一連の位置を追跡するように構成されている。   In yet another aspect of the invention, a tracking system for tracking the position of at least one movable object is disclosed. The tracking system comprises at least one detection system according to the present invention, such as one or more of the embodiments disclosed above and / or one or more of the embodiments disclosed in more detail below. The tracking system further comprises at least one tracking controller, the tracking controller being configured to track a series of positions of the object at a particular point in time.

本発明のさらに別の態様においては、少なくとも1つの物体の位置を決定する方法が開示される。この方法は、所与の順序または異なる順序で実行可能な以下のステップを含む。さらに、これら方法ステップのうちの2つ以上もしくはすべてについて、同時の実行および/または時間的に重なる実行がなされるようになっていてもよい。さらに、これら方法ステップのうちの1つ、2つ以上、あるいはすべてが繰り返し実行されるようになっていてもよい。この方法は、付加的な方法ステップをさらに含んでいてもよい。この方法は、
少なくとも1つの検出ステップであって、物体から検出器へと進む少なくとも1つの光線が、検出器の少なくとも1つの光学センサにより検出され、該少なくとも1つの光学センサが、画素のマトリクスを有する、ステップと、
少なくとも1つの評価ステップであって、光線により照射された光学センサの画素の強度分布が決定され、該強度分布を用いることにより、物体の少なくとも1つの縦方向座標が決定される、ステップと、
を含む。
In yet another aspect of the invention, a method for determining the position of at least one object is disclosed. The method includes the following steps that can be performed in a given or different order. Further, two or more or all of these method steps may be performed simultaneously and / or overlapping in time. Further, one, two or more or all of these method steps may be executed repeatedly. The method may further include additional method steps. This method
At least one detection step, wherein at least one light beam traveling from the object to the detector is detected by at least one optical sensor of the detector, the at least one optical sensor comprising a matrix of pixels; ,
At least one evaluation step, wherein an intensity distribution of the pixels of the optical sensor illuminated by the light beam is determined, and using the intensity distribution, at least one longitudinal coordinate of the object is determined;
including.

この方法は、好ましくは上記開示の実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する実施形態のうちの1つもしくは複数等、本発明に係る少なくとも1つの検出器を用いて実行されるようになっていてもよい。したがって、この方法の任意選択としての好適な実施形態については、検出器の開示内容を参照可能であり、その逆も可能である。さらに、この方法は、本発明に係る検出システム、マンマシンインターフェース、娯楽装置、または追跡システムを用いて実行されるようになっていてもよい。また、他の実施形態も実現可能である。   This method preferably uses at least one detector according to the present invention, such as one or more of the embodiments disclosed above and / or one or more of the embodiments disclosed in more detail below. It may be executed. Accordingly, the preferred disclosure of this method can be referred to the detector disclosure and vice versa. Further, the method may be performed using a detection system, man-machine interface, entertainment device, or tracking system according to the present invention. Other embodiments are also possible.

この方法は具体的に、画素それぞれの照射強度を示す少なくとも1つの信号を光学センサが生成するように実行可能である。この信号またはそこから導出される信号もしくは情報は、強度値または強度情報とも称する場合がある。複数の信号、強度値、または強度情報の実体は、画像とも称する場合がある。複数の光学センサを使用している場合は、画像のスタックまたは3次元画像が生成されるようになっていてもよい。   This method is specifically feasible so that the optical sensor generates at least one signal indicative of the illumination intensity of each pixel. This signal or the signal or information derived therefrom may also be referred to as intensity value or intensity information. An entity of a plurality of signals, intensity values, or intensity information may be referred to as an image. When a plurality of optical sensors are used, a stack of images or a three-dimensional image may be generated.

このため、画素それぞれについて、アナログおよび/またはデジタルの強度信号が生成されるようになっていてもよい。デジタル強度信号の直接生成またはたとえばアナログ−デジタル変換後の生成の場合、各画素のデジタル信号は、1ビット信号であってもよいし、好ましくは4ビット、8ビット、16ビット、または別のビット数等、2ビット以上の情報深さを有する信号であってもよい。   For this reason, an analog and / or digital intensity signal may be generated for each pixel. For direct generation of a digital intensity signal or for example after analog-to-digital conversion, the digital signal of each pixel may be a 1-bit signal, preferably 4 bits, 8 bits, 16 bits or another bit It may be a signal having an information depth of 2 bits or more, such as a number.

上記概説の通り、物体の縦方向座標は、強度分布と縦方向座標との間の所定の関係を用いて決定されるようになっていてもよい。   As outlined above, the longitudinal coordinates of the object may be determined using a predetermined relationship between the intensity distribution and the longitudinal coordinates.

強度分布は具体的に、
光学センサの光軸に垂直な平面における各画素の横方向位置の関数としての強度、
画素座標の関数としての強度、
強度の関数としての特定の強度を有する画素の数#の分布、
のうちの1つまたは複数を含んでいてもよい。
Specifically, the intensity distribution
The intensity as a function of the lateral position of each pixel in a plane perpendicular to the optical axis of the optical sensor,
Intensity as a function of pixel coordinates,
# Distribution of the number of pixels with a certain intensity as a function of intensity,
One or more of these may be included.

強度分布は具体的に、ガウス光線による照射の強度分布を近似したものであってもよい。   Specifically, the intensity distribution may be an approximation of the intensity distribution of irradiation with Gaussian rays.

この方法は具体的に、強度分布を近似した少なくとも1つの強度分布関数を決定するように実行可能である。物体の縦方向座標は、該縦方向座標と強度分布関数および/または該強度分布関数から導出される少なくとも1つのパラメータとの間の所定の関係を用いて決定されるようになっていてもよい。強度分布関数は具体的に、光線のビーム形状関数であってもよい。強度分布は具体的に、数学関数、具体的には光学センサの画素の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含んでいてもよい。この数学関数は具体的に、画素のマトリクスの少なくとも1つの画素座標の関数を含んでいてもよい。マトリクスの画素の画素位置は、x、yを画素座標として(x,y)により規定されるようになっていてもよく、2次元または3次元の数学関数は、f(x)、f(y)、f(x,y)から成る群から選択される1つまたは複数の関数を含んでいてもよい。ここで、f(x)またはf(y)は2次元の関数と考えられ、f(x,y)は3次元の関数と考えられる。2次元または3次元の数学関数は具体的に、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数、またはこれら関数のうちの1つもしくは複数を含む少なくとも1つの導関数、少なくとも1つの線形結合、もしくは少なくとも1つの積、から成る群から選択される1つまたは複数の数学関数を含んでいてもよい。さらに、2つ以上の数学関数の組み合わせも可能である。これにより、上記概説の通り、2次元または3次元の数学関数は、上掲の数学関数のうちの2つ以上等、2つ以上の数学関数の少なくとも1つの積、少なくとも1つの線形結合、または少なくとも1つの導関数等の組み合わせを含んでいてもよい。   This method is specifically executable to determine at least one intensity distribution function approximating the intensity distribution. The longitudinal coordinate of the object may be determined using a predetermined relationship between the longitudinal coordinate and the intensity distribution function and / or at least one parameter derived from the intensity distribution function. . Specifically, the intensity distribution function may be a beam shape function of a light beam. The intensity distribution may specifically include a mathematical function, specifically a two-dimensional or three-dimensional mathematical function approximating intensity information contained in at least a part of the pixel of the optical sensor. This mathematical function may specifically comprise a function of at least one pixel coordinate of a matrix of pixels. The pixel position of the pixel of the matrix may be defined by (x, y) where x and y are pixel coordinates, and the two-dimensional or three-dimensional mathematical function is f (x), f (y ), F (x, y) may include one or more functions selected from the group consisting of f (x, y). Here, f (x) or f (y) is considered a two-dimensional function, and f (x, y) is considered a three-dimensional function. Specifically, the two-dimensional or three-dimensional mathematical function is a bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function, or these functions. One or more mathematical functions selected from the group consisting of at least one derivative including one or more of the following, at least one linear combination, or at least one product. Furthermore, combinations of two or more mathematical functions are possible. Thus, as outlined above, a two-dimensional or three-dimensional mathematical function is a product of at least one of two or more mathematical functions, such as two or more of the mathematical functions listed above, at least one linear combination, or A combination of at least one derivative or the like may be included.

数学関数が2つ以上の関数の積を含む場合は、一例として、該積がf(x,y)=p(x)・q(y)の形態であってもよい。ここで、p(x)およびq(y)は数学関数であって、たとえばガウス関数、エルミート−ガウス関数、ベッセル関数から成る群から独立して選択される数学関数である。また、他の関数も可能である。さらに、f(x,y)は一般的に、f(x,y)=f(x,y)および/またはf(x,y)=f(x+y)等の回転対称関数であってもよい。この回転対称関数は一般的に、2つの関数の積の特殊な場合と考えられる。ただし、これらの例は、説明目的のみで示しており、その他多くの関数が実現可能であることに留意するものとする。 When the mathematical function includes a product of two or more functions, as an example, the product may be in the form of f (x, y) = p (x) · q (y). Here, p (x) and q (y) are mathematical functions, for example, mathematical functions independently selected from the group consisting of a Gaussian function, a Hermitian-Gaussian function, and a Bessel function. Other functions are also possible. Further, f (x, y) is generally a rotationally symmetric function such as f (x, y) = f (x 2 , y 2 ) and / or f (x, y) = f (x 2 + y 2 ) It may be. This rotationally symmetric function is generally considered a special case of the product of two functions. However, it should be noted that these examples are given for illustrative purposes only and many other functions are feasible.

上記概説の通り、上記少なくとも1つの強度分布が決定されるようになっていてもよい。具体的には、複数の平面において複数の強度分布が決定されるようになっていてもよく、平面それぞれについて少なくとも1つの強度分布が決定されるのが好ましく、これらの平面は、検出器の光軸に垂直であるのが好ましく、また、これら複数の平面は、光軸に沿って互いにオフセットしているのが好ましい。この目的のため、具体的に、検出器は、複数の光学センサ、具体的には光学センサのスタックを備えていてもよい。また、光軸に沿った縦方向座標の関数として強度分布の変化を決定することにより、物体の縦方向座標が決定されるようになっていてもよい。また、それぞれが上記平面のうちの1つにおける強度分布を近似した複数の強度分布関数が決定されるようになっていてもよく、物体の縦方向座標はさらに、これら複数の強度分布関数から得られるものであってもよい。強度分布関数はそれぞれ、各平面における光線のビーム形状関数であってもよい。各強度分布関数からは、少なくとも1つのビームパラメータが導出されるようになっていてもよい。また、光軸に沿った縦方向座標の関数として少なくとも1つのビームパラメータの変化を決定することにより、物体の縦方向座標が決定されるようになっていてもよい。上記少なくとも1つのビームパラメータは具体的に、ビーム径、ビームウェスト、ガウスビームパラメータから成る群から選択されるようになっていてもよい。物体の縦方向座標は具体的に、ビームパラメータと縦方向座標との間の所定の関係を用いて決定されるようになっていてもよい。   As outlined above, the at least one intensity distribution may be determined. Specifically, a plurality of intensity distributions may be determined in a plurality of planes, and at least one intensity distribution is preferably determined for each plane, and these planes are the light of the detector. The axes are preferably perpendicular and the planes are preferably offset from one another along the optical axis. For this purpose, in particular, the detector may comprise a plurality of optical sensors, in particular a stack of optical sensors. Further, the vertical coordinate of the object may be determined by determining a change in intensity distribution as a function of the vertical coordinate along the optical axis. Further, a plurality of intensity distribution functions each approximating the intensity distribution in one of the planes may be determined, and the longitudinal coordinate of the object is further obtained from the plurality of intensity distribution functions. May be used. Each of the intensity distribution functions may be a beam shape function of light rays in each plane. At least one beam parameter may be derived from each intensity distribution function. Further, the longitudinal coordinate of the object may be determined by determining a change in at least one beam parameter as a function of the longitudinal coordinate along the optical axis. Specifically, the at least one beam parameter may be selected from the group consisting of a beam diameter, a beam waist, and a Gaussian beam parameter. Specifically, the vertical coordinate of the object may be determined using a predetermined relationship between the beam parameter and the vertical coordinate.

評価ステップにおいては、画素それぞれについて、各画素の信号を少なくとも1つの閾値と比較することにより、該画素が照射された画素であるか否かが判定されるようになっていてもよい。   In the evaluation step, for each pixel, it may be determined whether the pixel is an irradiated pixel by comparing the signal of each pixel with at least one threshold value.

上記概説の通り、この閾値は、所定の閾値であってもよいし、少なくとも1つの所定のアルゴリズムに従って決定可能な可変閾値であってもよい。   As outlined above, this threshold may be a predetermined threshold or a variable threshold that can be determined according to at least one predetermined algorithm.

評価ステップにおいては、画素の信号を比較することによって、該画素のうちの最大照射の少なくとも1つの画素が決定される。これにより、マトリクスの画素のうちの最大照射の1つまたは複数の画素が決定されるようになっていてもよい。   In the evaluation step, at least one pixel of the maximum illumination among the pixels is determined by comparing the signals of the pixels. Thereby, one or a plurality of pixels of the maximum irradiation among the pixels of the matrix may be determined.

最大照射の1つまたは複数の画素に関する情報は、さまざまに使用可能である。これにより、一例として、この情報は、上述の閾値の決定に使用するようにしてもよい。一例として、閾値は、最大照射の少なくとも1つの画素の信号の割合として選定されるようになっていてもよい。上記概説の通り、一例として、閾値は、最大照射の少なくとも1つの画素の信号に係数1/eを乗算することによって選定さるようになっていてもよい。 Information about one or more pixels of maximum illumination can be used in various ways. Thereby, as an example, this information may be used to determine the above-described threshold. As an example, the threshold value may be selected as a ratio of a signal of at least one pixel of maximum irradiation. As outlined above, as an example, the threshold may be adapted to monkey selected by multiplying a factor 1 / e 2 to the signal of at least one pixel having the maximum illumination.

上記概説の通り、強度分布の決定には、光線により照射された光学センサの画素の数Nの決定が含まれていてもよく、物体の少なくとも1つの縦方向座標の決定には、光線により照射された画素の数Nの使用を含む。物体の縦方向座標は具体的に、光線により照射された画素の数Nと縦方向座標との間の所定の関係を用いて決定されるようになっていてもよい。   As outlined above, determining the intensity distribution may include determining the number N of pixels of the optical sensor illuminated by the light beam, and determining the at least one longitudinal coordinate of the object illuminated by the light beam. Including the use of the number N of rendered pixels. Specifically, the vertical coordinate of the object may be determined using a predetermined relationship between the number N of pixels irradiated by the light beam and the vertical coordinate.

物体の縦方向座標は、光線により照射された画素の数Nと縦方向座標との間の所定の関係を用いて決定されるようになっていてもよい。上記概説の通り、この所定の関係は、経験的な関係および/または分析的な関係であってもよい。一例として、この所定の関係は、光線がガウス光線であるという仮定に基づいていてもよい。したがって、検出器に関する上記説明の通り、この所定の関係は、以下の通りであってもよい。

Figure 2016529473
ここで、zは、縦方向座標であり、
は、光線が空間中を伝搬する際の最小ビーム半径であり、
は、光線のレイリー長であって、z=π・w /λであるとともに、λは光線の波長である。 The vertical coordinate of the object may be determined using a predetermined relationship between the number N of pixels irradiated by the light beam and the vertical coordinate. As outlined above, this predetermined relationship may be an empirical relationship and / or an analytical relationship. As an example, this predetermined relationship may be based on the assumption that the ray is a Gaussian ray. Therefore, as described above with respect to the detector, this predetermined relationship may be as follows.
Figure 2016529473
Where z is the vertical coordinate,
w 0 is the minimum beam radius at which a ray propagates through space,
z 0 is the Rayleigh length of the ray, z 0 = π · w 0 2 / λ, and λ is the wavelength of the ray.

ここでも、画素のマトリクスは、好ましくは2次元マトリクスであってもよい。画素のマトリクスは、より好ましくは矩形マトリクスであってもよい。   Again, the pixel matrix may preferably be a two-dimensional matrix. The pixel matrix may more preferably be a rectangular matrix.

検出器については、1つの光学センサ、好ましくは複数の光学センサを備えていてもよい。光学センサは、検出器の光軸に沿って積み重ねられていてもよい。   The detector may include one optical sensor, preferably a plurality of optical sensors. The optical sensors may be stacked along the optical axis of the detector.

検出器は、n個の光学センサを備えていてもよい。ここで、光学センサそれぞれについて、光線により照射された画素の数Nが決定されるようになっていてもよく、i∈{1,n}は、各光学センサを示している。 The detector may include n optical sensors. Here, for each optical sensor, the number N i of pixels irradiated with light rays may be determined, and iε {1, n} indicates each optical sensor.

各光学センサについて、光線により照射された画素の数Nを少なくとも1つの隣接する光学センサと比較することにより、物体の縦方向座標の曖昧さが解消されるようになっていてもよい。さらに、この追加または代替として、光学センサのセンサ信号が光線のパワーに関して正規化されるようになっていてもよい。 For each optical sensor, by comparison with at least one adjacent optical sensors the number N i of pixels illuminated by light, may be adapted ambiguity vertical coordinates of the object is eliminated. Furthermore, as an addition or as an alternative, the sensor signal of the optical sensor may be normalized with respect to the power of the light beam.

本発明の別の態様においては、交通技術における位置測定、娯楽用途、セキュリティ用途、安全用途、マンマシンインターフェース用途、追跡用途、芸術、記録、または技術目的のデジタル写真の用途等の写真撮影用途、少なくとも1つの飛行時間型検出器との組み合わせによる使用、から成る群から選択される使用目的で、上記開示の実施形態のうちの1つもしくは複数ならびに/またはより詳しく以下に開示する実施形態のうちの1つもしくは複数等、本発明に係る検出器の使用が開示される。   In another aspect of the invention, photography applications such as location measurements in traffic technology, entertainment applications, security applications, safety applications, man-machine interface applications, tracking applications, arts, recordings, or digital photography applications for technical purposes, One or more of the embodiments disclosed above and / or of the embodiments disclosed in more detail below, for use selected from the group consisting of: use in combination with at least one time-of-flight detector The use of a detector according to the present invention, such as one or more of the following, is disclosed.

したがって、本発明に係る検出器は一般的に、さまざまな使用分野において適用可能である。具体的に、検出器は、交通技術における位置測定、娯楽用途、セキュリティ用途、マンマシンインターフェース用途、追跡用途、写真撮影用途、室内、建造物、および街路、から成る群から選択される少なくとも1つの空間等、少なくとも1つの空間のマップを生成するマッピング用途、モバイル用途、ウェブカメラ、オーディオ装置、ドルビーサラウンドオーディオシステム、コンピュータ周辺装置、ゲーム用途、カメラまたはビデオ用途、監視用途、自動車用途、輸送用途、医療用途、スポーツ用途、マシンビジョン用途、車両用途、航空機用途、船舶用途、宇宙船用途、建造物用途、建設用途、地図作成用途、製造用途、少なくとも1つの飛行時間型検出器との組み合わせによる使用、から成る群から選択される使用目的で適用可能である。この追加または代替として、具体的には自動車等の車両(列車、バイク、自転車、貨物輸送トラック等)、ロボットでの使用または歩行者による使用を目的とした局所および/または全地球測位システム、特にランドマークに基づく測位および/またはナビゲーションの用途が挙げられる。さらに、家庭用途および/または製造技術において用いられるロボット等に対する可能な用途として、屋内測位システムも挙げられる。   Therefore, the detector according to the present invention is generally applicable in various fields of use. Specifically, the detector is at least one selected from the group consisting of location measurement in traffic technology, entertainment application, security application, man-machine interface application, tracking application, photography application, indoor, building, and street. Mapping applications that generate a map of at least one space, such as space, mobile applications, webcams, audio devices, Dolby surround audio systems, computer peripherals, gaming applications, camera or video applications, surveillance applications, automotive applications, transportation applications, Medical applications, sports applications, machine vision applications, vehicle applications, aircraft applications, marine applications, spacecraft applications, building applications, construction applications, mapping applications, manufacturing applications, use in combination with at least one time-of-flight detector Applicable for a purpose selected from the group consisting of That. In addition to or as an alternative, specifically local and / or global positioning systems intended for use by vehicles such as cars (trains, bikes, bicycles, freight trucks, etc.), robots or pedestrians, in particular Landmark-based positioning and / or navigation applications may be mentioned. Furthermore, an indoor positioning system can also be mentioned as a possible application for home use and / or robots used in manufacturing technology.

したがって、国際公開第2012/110924A1号明細書、2012年12月19日に出願された米国仮特許出願第61/739,173号明細書、2013年1月8日に出願された米国仮特許出願第61/749,964号明細書、2013年8月19日に出願された米国仮特許出願第61/867,169号明細書、および2013年12月18日に出願された国際特許出願第PCT/IB2013/061095号明細書に開示の光学検出器および装置については、より詳しく以下に開示する目的のうちの1つまたは複数等、複数の用途に対して、本発明に係る検出器、検出システム、マンマシンインターフェース、娯楽装置、追跡システム、またはカメラ(以下、単に「本発明に係る装置」と称する)を使用可能である。   Accordingly, International Publication No. 2012 / 110924A1, US Provisional Patent Application No. 61 / 739,173, filed on December 19, 2012, US Provisional Patent Application, filed on January 8, 2013 No. 61 / 749,964, U.S. Provisional Patent Application No. 61 / 867,169 filed on August 19, 2013, and International Patent Application No. PCT filed on December 18, 2013. The detector and detection system according to the present invention for a plurality of uses, such as one or more of the objects disclosed in more detail below, with respect to the optical detector and apparatus disclosed in the specification / IB2013 / 061095 , A man-machine interface, an entertainment device, a tracking system, or a camera (hereinafter simply referred to as “device according to the invention”).

したがって、本発明に係る装置はまず、携帯電話、タブレットコンピュータ、ラップトップ、スマートフォン等の固定式または移動式コンピュータまたは通信用途に使用可能である。このため、本発明に係る装置は、可視域または赤外スペクトル域の光を放出する光源等、少なくとも1つの能動光源と組み合わせることによって、性能を向上させるようにしてもよい。これにより、一例として、本発明に係る装置は、環境、物体、および生物をスキャンするモバイルソフトウェアとの組み合わせ等において、カメラおよび/またはセンサとして使用するようにしてもよい。本発明に係る装置は、従来カメラ等の2Dカメラと組み合わせることによって、撮像効果を高めるようにしてもよい。本発明に係る装置は、監視および/もしくは記録目的または特に音声および/もしくはジェスチャ認識と組み合わせた移動装置を制御する入力装置としてさらに使用可能である。これにより、特に、入力装置とも称するマンマシンインターフェースとして作用する本発明に係る装置は、携帯電話等の移動装置を介した他の電子装置または構成要素の制御等、モバイル用途に使用可能である。一例として、本発明に係る少なくとも1つの装置を含むモバイル用途は、テレビ受像機、ゲームコンソール、音楽プレーヤまたは音楽機器等の娯楽装置の制御に使用可能である。   Thus, the device according to the invention can first be used for stationary or mobile computers or communication applications such as mobile phones, tablet computers, laptops, smartphones and the like. For this reason, the apparatus according to the present invention may be improved in performance by combining with at least one active light source such as a light source that emits light in the visible range or the infrared spectral range. Thus, as an example, the apparatus according to the present invention may be used as a camera and / or sensor in combination with mobile software that scans the environment, objects, and organisms. The apparatus according to the present invention may be combined with a 2D camera such as a conventional camera to enhance the imaging effect. The device according to the invention can further be used as an input device for controlling mobile devices in combination with monitoring and / or recording purposes or in particular with voice and / or gesture recognition. Thereby, in particular, the device according to the present invention acting as a man-machine interface, also called an input device, can be used for mobile applications such as control of other electronic devices or components via a mobile device such as a mobile phone. As an example, a mobile application comprising at least one device according to the invention can be used to control an entertainment device such as a television receiver, game console, music player or music equipment.

さらに、本発明に係る装置は、ウェブカメラまたはコンピューティング用途の他の周辺装置に使用可能である。これにより、一例として、本発明に係る装置は、撮像、記録、監視、スキャン、または動き検出用のソフトウェアと組み合わせて使用するようにしてもよい。マンマシンインターフェースおよび/または娯楽装置の背景における概説の通り、本発明に係る装置は、特に表情および/または身体表現によるコマンドの付与に有用である。本発明に係る装置は、たとえばマウス、キーボード、タッチパッド、マイク等の他の入力発生装置と組み合わせることができる。さらに、本発明に係る装置は、ウェブカメラの使用等によって、ゲーム用途に使用可能である。さらに、本発明に係る装置は、仮想トレーニング用途および/またはテレビ会議に使用可能である。   Furthermore, the device according to the invention can be used in webcams or other peripheral devices for computing applications. Thus, as an example, the apparatus according to the present invention may be used in combination with software for imaging, recording, monitoring, scanning, or motion detection. As outlined in the background of man-machine interfaces and / or entertainment devices, the device according to the invention is particularly useful for giving commands by facial expressions and / or body expressions. The device according to the present invention can be combined with other input generating devices such as a mouse, a keyboard, a touchpad, and a microphone. Furthermore, the apparatus according to the present invention can be used for game applications by using a web camera or the like. Furthermore, the device according to the invention can be used for virtual training applications and / or video conferencing.

さらに、本発明に係る装置は、一部を上述した通り、移動式オーディオ装置、テレビ装置、およびゲーム装置に使用可能である。具体的に、本発明に係る装置は、電子装置、娯楽装置等のコントローラまたは制御装置として使用可能である。さらに、本発明に係る装置は、特に拡張現実用途ならびに/またはディスプレイの視認の有無および/もしくはディスプレイに対する視点の認識のための透明なディスプレイを用いた2Dおよび3D表示技術等において、視線検出または視標追跡に使用可能である。   Furthermore, the device according to the present invention can be used for a mobile audio device, a television device, and a game device as described above in part. Specifically, the device according to the present invention can be used as a controller or control device for electronic devices, entertainment devices and the like. Furthermore, the apparatus according to the present invention is particularly suitable for augmented reality applications and / or 2D and 3D display technology using a transparent display for the presence or absence of visual recognition and / or the recognition of the viewpoint of the display. It can be used for target tracking.

さらに、本発明に係る装置は、DSCカメラ等のデジタルカメラおよび/もしくはSLRカメラ等のレフカメラにおける使用またはこのようなカメラとしての使用が可能である。これらの用途については、上記開示の携帯電話等のモバイル用途における本発明に係る装置の使用を参照可能である。   Furthermore, the apparatus according to the present invention can be used in a digital camera such as a DSC camera and / or a reflex camera such as an SLR camera, or as such a camera. For these applications, reference can be made to the use of the device according to the present invention in mobile applications such as the mobile phones disclosed above.

さらに、本発明に係る装置は、セキュリティまたは監視用途に使用可能である。これにより、一例として、本発明に係る少なくとも1つの装置は、物体が所定区域の内側または外側となった場合に信号を発する1つまたは複数のデジタルおよび/またはアナログ電子機器と組み合わせることができる(たとえば、銀行または博物館における監視用途)。具体的に、本発明に係る装置は、光暗号化に使用可能である。本発明に係る少なくとも1つの装置を用いた検出は、他の検出装置と組み合わせることによって、IR、X線、UV−VIS、レーダ、または超音波検出器等による波長を補完可能である。さらに、本発明に係る装置は、能動赤外光源との組み合わせによって、微光環境での検出が可能であってもよい。本発明に係る装置は一般的に、能動検出システムと比較して都合が良い。具体的に、本発明に係る装置は、たとえばレーダ用途、超音波用途、LIDARまたは類似の能動検出装置と同様に、第三者が検出し得る能動的な信号送信を回避するためである。したがって、本発明に係る装置は一般的に、移動物体の認識されない検出不可能な追跡に使用可能である。また、本発明に係る装置は一般的に、従来の装置と比較して、操作および刺激が生じ難い。   Furthermore, the device according to the invention can be used for security or monitoring applications. Thereby, by way of example, at least one device according to the invention can be combined with one or more digital and / or analog electronics that emit a signal when an object is inside or outside a predetermined area ( (For example, monitoring applications in banks or museums). Specifically, the device according to the present invention can be used for optical encryption. Detection using at least one device according to the present invention can be complemented with wavelengths by IR, X-rays, UV-VIS, radar, an ultrasonic detector, or the like by combining with other detection devices. Furthermore, the apparatus according to the present invention may be capable of detection in a low light environment by combination with an active infrared light source. The device according to the invention is generally advantageous compared to an active detection system. Specifically, the device according to the present invention is for avoiding active signal transmission that can be detected by a third party, as in, for example, radar applications, ultrasound applications, LIDAR or similar active detection devices. Thus, the device according to the invention can generally be used for unrecognizable undetectable tracking of moving objects. Also, the device according to the present invention is generally less susceptible to manipulation and stimulation than conventional devices.

さらに、本発明に係る装置による3D検出が簡単かつ正確であるものと仮定すると、該本発明に係る装置は一般的に、顔、身体、および人物の認識および識別に使用可能である。ここで、本発明に係る装置は、パスワード、指紋、虹彩検出、音声認識、または他の手段等、識別または個人特定のための他の検出手段と組み合わせるようにしてもよい。したがって、本発明に係る装置は一般的に、セキュリティ装置および他の個人向け用途に使用可能である。   Furthermore, assuming that the 3D detection by the device according to the present invention is simple and accurate, the device according to the present invention can generally be used for face and body and person recognition and identification. Here, the device according to the present invention may be combined with other detection means for identification or personal identification such as password, fingerprint, iris detection, voice recognition, or other means. Thus, the device according to the present invention can generally be used for security devices and other personal applications.

さらに、本発明に係る装置は、製品識別用の3Dバーコードリーダに使用可能である。   Furthermore, the apparatus according to the present invention can be used in a 3D barcode reader for product identification.

上述のセキュリティおよび監視用途のほか、本発明に係る装置は一般的に、空間およびエリアの監視およびモニタリングに使用可能である。したがって、本発明に係る装置は、空間およびエリアの調査およびモニタリングに使用可能であり、一例として、禁止エリアへの侵入の場合の警報の起動または実行に使用可能である。これにより、本発明に係る装置は一般的に、任意選択として、運動センサまたは熱センサとの組み合わせ等、他の種類のセンサとの組み合わせ、画像増強器もしくは画像増強装置ならびに/または光電子増倍管との組み合わせにより、建造物の監視または博物館の監視における監視目的で使用可能である。   In addition to the security and monitoring applications described above, the apparatus according to the present invention can generally be used for space and area monitoring and monitoring. Therefore, the device according to the present invention can be used for surveying and monitoring space and area, and as an example, can be used for triggering or executing an alarm in the case of entry into a prohibited area. Thereby, the device according to the invention is generally optionally combined with other types of sensors, such as in combination with motion sensors or thermal sensors, image intensifiers or image intensifiers and / or photomultiplier tubes. Can be used for surveillance purposes in building surveillance or museum surveillance.

さらに、本発明に係る装置は、ビデオおよびビデオカメラ用途等のカメラ用途に適用可能であり都合が良い。したがって、本発明に係る装置を用いることにより、モーションキャプチャおよび3Dムービー記録を行うようにしてもよい。ここで、本発明に係る装置は一般的に、従来の光学装置に対して多くの利点がある。このように、本発明に係る装置が光学部品に関して必要とする複雑性は、一般的に低くなる。これにより、一例として、本発明に係る装置は、たとえばレンズを1つだけ有することにより、従来の光学装置と比較してレンズの数を減らすことができる。複雑性の低減によって、モバイル用途等、非常にコンパクトな装置が可能となる。高品質な2つ以上のレンズを有する従来の光学系は通常、大きなビームスプリッタが一般的に必要であること等により、大型である。さらに、本発明に係る装置は一般的に、オートフォーカスカメラ等のフォーカス/オートフォーカス装置に使用可能である。さらに、本発明に係る装置は、光学顕微鏡法、特に共焦点顕微鏡法にも使用可能である。   Furthermore, the apparatus according to the present invention is advantageously applicable to camera applications such as video and video camera applications. Therefore, motion capture and 3D movie recording may be performed by using the apparatus according to the present invention. Here, the device according to the invention generally has many advantages over conventional optical devices. Thus, the complexity required for the optical component by the device according to the invention is generally low. Thereby, as an example, the apparatus according to the present invention can reduce the number of lenses as compared with a conventional optical apparatus by having only one lens, for example. The reduced complexity allows for very compact devices such as mobile applications. Conventional optical systems with two or more high-quality lenses are usually large, such as generally requiring a large beam splitter. Furthermore, the apparatus according to the present invention can generally be used for a focus / autofocus apparatus such as an autofocus camera. Furthermore, the device according to the invention can also be used for optical microscopy, in particular for confocal microscopy.

さらに、本発明に係る装置は一般的に、自動車技術および輸送技術の技術分野において適用可能である。これにより、一例として、本発明に係る装置は、適応走行制御、緊急ブレーキアシスト、車線逸脱警報、サラウンドビュー、死角検出、後退時支援、ならびに他の自動車および交通用途等の距離および監視センサとして使用可能である。さらに、本発明に係る装置は、本発明に係る検出器を用いて得られた位置情報の1次および2次時間導関数の解析等によって、速度および/または加速度の測定にも使用可能である。この特徴は一般的に、自動車技術、輸送技術、または総合交通技術において適用可能であってもよい。また、他の技術分野における用途も実現可能である。屋内測位システムにおける特定の用途は、より具体的にはエアバッグ等の安全システムの使用を電子的に制御するための移動時の乗員位置の検出であってもよい。エアバッグの使用によって重症を負う位置に乗員が存在する場合は、エアバッグの使用が阻止されるようになっていてもよい。   Furthermore, the device according to the invention is generally applicable in the technical fields of automotive technology and transportation technology. Thereby, as an example, the device according to the present invention is used as a distance and monitoring sensor for adaptive travel control, emergency brake assist, lane departure warning, surround view, blind spot detection, reverse assistance, and other automobile and traffic applications, etc. Is possible. Furthermore, the device according to the present invention can also be used for velocity and / or acceleration measurements, such as by analyzing the first and second time derivatives of the position information obtained using the detector according to the present invention. . This feature may be generally applicable in automotive technology, transportation technology, or integrated transportation technology. Also, applications in other technical fields can be realized. The specific application in the indoor positioning system may more specifically be detection of an occupant position during movement to electronically control the use of a safety system such as an airbag. When an occupant is present at a position that is severely affected by the use of an air bag, the use of the air bag may be prevented.

上記または他の用途において、本発明に係る装置は一般的に、独立した装置として使用するようにしてもよいし、レーダおよび/または超音波装置等の他のセンサ装置と組み合わせて使用するようにしてもよい。具体的に、本発明に係る装置は、自律走行または安全上の課題に使用可能である。さらに、これらの用途において、本発明に係る装置は、赤外線センサ、音響センサであるレーダセンサ、2次元カメラ、または他の種類のセンサと組み合わせて使用可能である。これらの用途においては、本発明に係る装置の大略受動的な性質が好都合である。したがって、本発明に係る装置は一般的に、信号を発する必要がないため、他の信号源による能動センサ信号の干渉の危険性を回避可能である。本発明に係る装置は具体的に、標準的な画像認識ソフトウェア等の認識ソフトウェアと組み合わせて使用可能である。したがって、本発明に係る装置が提供する信号およびデータは通常、容易に処理可能であるため、必要となる計算パワーは一般的に、LIDAR等の確立された立体視システムよりも低い。所要空間が抑えられるものと仮定すると、カメラ等の本発明に係る装置は、ウィンドウスクリーン、フロントボンネット、バンパー、ライト、ミラー、または他の位置等、車両の仮想的な任意位置に配置可能である。本発明に開示の効果に基づく1つまたは複数の検出器等、本発明に係る種々検出器は、車両の自律走行または能動的安全(アクティブセーフティ)の概念の能力向上等のため、組み合わせることができる。したがって、本発明に係る種々装置は、リアウィンドウ、サイドウィンドウ、もしくはフロントウィンドウ等のウィンドウ、バンパー、またはライト等において、本発明に係る1つもしくは複数の他の装置ならびに/または従来のセンサと組み合わせるようにしてもよい。   In the above or other applications, the device according to the present invention may generally be used as an independent device or in combination with other sensor devices such as radar and / or ultrasound devices. May be. Specifically, the device according to the present invention can be used for autonomous driving or safety issues. Further, in these applications, the device according to the present invention can be used in combination with an infrared sensor, a radar sensor that is an acoustic sensor, a two-dimensional camera, or other types of sensors. In these applications, the generally passive nature of the device according to the invention is advantageous. Thus, the device according to the present invention generally does not need to emit a signal, thus avoiding the risk of interference of active sensor signals by other signal sources. Specifically, the apparatus according to the present invention can be used in combination with recognition software such as standard image recognition software. Thus, since the signals and data provided by the device according to the present invention are usually easily processable, the required computational power is generally lower than established stereoscopic systems such as LIDAR. Assuming that the required space is constrained, the device according to the present invention, such as a camera, can be placed in a virtually arbitrary position of the vehicle, such as a window screen, front bonnet, bumper, light, mirror, or other position. . Various detectors according to the present invention, such as one or a plurality of detectors based on the effects disclosed in the present invention, can be combined to improve the capability of the concept of autonomous driving of vehicles or active safety (active safety), etc. it can. Accordingly, the various devices according to the present invention are combined with one or more other devices according to the present invention and / or conventional sensors in windows, bumpers, lights, etc., such as rear windows, side windows or front windows. You may do it.

本発明に係る少なくとも1つの検出器等、本発明に係る少なくとも1つの装置は、1つまたは複数の雨検出センサと組み合わせることも可能である。これは、特に大雨の際に、本発明に係る装置が一般的にレーダ等の従来のセンサ技術よりも好都合であるという事実による。本発明に係る少なくとも1つの装置をレーダ等の少なくとも1つの従来の検知技術と組み合わせることにより、ソフトウェアによって、気象条件に応じた信号の適切な組み合わせを採用可能であってもよい。   At least one device according to the invention, such as at least one detector according to the invention, can also be combined with one or more rain detection sensors. This is due to the fact that the device according to the invention is generally advantageous over conventional sensor technologies such as radar, especially during heavy rains. By combining at least one device according to the present invention with at least one conventional detection technology such as radar, an appropriate combination of signals according to weather conditions may be employable by software.

さらに、本発明に係る装置は一般的に、ブレーキアシストおよび/または駐車支援および/または速度計測に使用可能である。速度計測は、交通管制における他車の速度の計測等のため、車内への組み込みまたは車外での使用が可能である。さらに、本発明に係る装置は、駐車場における空き駐車スペースの検出に使用可能である。   Furthermore, the device according to the invention can generally be used for brake assist and / or parking assistance and / or speed measurement. The speed measurement can be incorporated into the vehicle or used outside the vehicle for measuring the speed of other vehicles in traffic control. Furthermore, the apparatus which concerns on this invention can be used for the detection of the empty parking space in a parking lot.

さらに、本発明に係る装置は、医療システムおよびスポーツの分野において使用可能である。したがって、医療技術の分野においては、たとえば内視鏡に使用する外科手術用ロボット工学が挙げられる。上記概説の通り、本発明に係る装置は、必要な容積が少なく、他の装置に組み込まれていてもよいためである。具体的に、レンズを多くても1つしか持たない本発明に係る装置は、内視鏡等の医療装置における3D情報の取得に使用可能である。さらに、本発明に係る装置は、適当なモニタリングソフトウェアと組み合わせることにより、移動の追跡および分析が可能であってもよい。これらの用途は具体的に、たとえば治療、遠隔診断、および遠隔治療において有益である。   Furthermore, the device according to the invention can be used in the fields of medical systems and sports. Therefore, in the field of medical technology, for example, surgical robotics used for endoscopes can be mentioned. This is because, as outlined above, the device according to the present invention requires a small volume and may be incorporated in another device. Specifically, an apparatus according to the present invention having at most one lens can be used for acquiring 3D information in a medical apparatus such as an endoscope. Furthermore, the device according to the present invention may be capable of tracking and analyzing movements in combination with suitable monitoring software. These applications are particularly useful, for example, in therapy, telediagnosis, and teletherapy.

さらに、本発明に係る装置は、トレーニング、遠隔指導、または試合目的等、スポーツおよび運動の分野において適用可能である。具体的に、本発明に係る装置は、ダンス、エアロビクス、フットボール、サッカー、バスケットボール、野球、クリケット、ホッケー、陸上競技、水泳、ポロ、ハンドボール、バレーボール、ラグビー、相撲、柔道、フェンシング、ボクシング等の分野において適用可能である。本発明に係る装置は、ゲームのモニタリング、審判の補助、ポイントまたはゴールが実際に発生したか否かの判定等、スポーツの特定の状況の判定、具体的には自動判定等、スポーツおよびゲームの両者におけるボール、バット、剣、動き等の位置を検出するのに用いることができる。   Furthermore, the device according to the present invention can be applied in the field of sports and exercise, such as training, remote instruction, or game purposes. Specifically, the apparatus according to the present invention is used in fields such as dance, aerobics, football, soccer, basketball, baseball, cricket, hockey, athletics, swimming, polo, handball, volleyball, rugby, sumo, judo, fencing and boxing. Is applicable. The device according to the present invention can be used to determine sports specific situations such as monitoring a game, assisting a referee, determining whether a point or goal has actually occurred, specifically an automatic determination, etc. It can be used to detect the position of the ball, bat, sword, movement, etc. in both.

さらに、本発明に係る装置は、トレーニングの励ましならびに/または動きの調査および矯正のため、リハビリおよび理学療法において使用可能である。ここで、本発明に係る装置は、遠隔診断にも適用可能である。   Furthermore, the device according to the invention can be used in rehabilitation and physical therapy for training encouragement and / or motion investigation and correction. Here, the apparatus according to the present invention is also applicable to remote diagnosis.

さらに、本発明に係る装置は、マシンビジョンの分野において適用可能である。これにより、たとえばロボットの自律走行および/または作業用の受動制御ユニットとして、本発明に係る装置のうちの1つまたは複数を使用可能である。移動ロボットとの組み合わせにより、本発明に係る装置は、自律移動および/または部品の故障の自律検出を可能とする。また、本発明に係る装置は、ロボット、製造部品、および生物間の衝突を含むがこれらに限定されない事故の回避等を目的として、製造および安全監視に使用可能である。ロボット工学においては、人間とロボットとの安全かつ直接的な相互作用が課題となる場合が多い。ロボットは、人間を認識していない場合、人間に重傷を負わせる場合があるためである。本発明に係る装置は、ロボットが物体および人間を良好かつ高速に位置決めして、安全な相互作用を可能とするのに役立ち得る。本発明に係る装置が受動的な性質を有するものと仮定すると、該本発明に係る装置は、能動装置よりも好都合となる場合および/またはレーダ、超音波、2Dカメラ、IR検出等の既存のソリューションとの相補的な使用が可能となる場合がある。本発明に係る装置の具体的な利点として、信号干渉の可能性が低いことが挙げられる。したがって、信号干渉の危険性なく、複数のセンサが同じ環境で同時に作業可能である。これにより、本発明に係る装置は一般的に、自動車、採鉱、製鋼等、およびこれらに限定されない高度に自動化された製造環境において有用となり得る。また、本発明に係る装置は、たとえば品質管理等を目的とした2D撮像、レーダ、超音波、IR等の他のセンサとの組み合わせとして、製造上の品質管理に使用可能である。さらに、本発明に係る装置は、マイクロメートルの範囲からメートルの範囲まで、製品の表面均一性または指定寸法の順守の調査等、表面品質の評価に使用可能である。また、他の品質管理用途も実現可能である。製造環境において、本発明に係る装置は、複雑な3次元構造を有する食料品または木材等の天然産物を処理して廃棄物の増加を回避するのに特に有用である。さらに、本発明に係る装置は、タンク、サイロ等の充填レベルの監視に使用可能である。   Furthermore, the apparatus according to the present invention is applicable in the field of machine vision. Thereby, for example, one or more of the devices according to the present invention can be used as a passive control unit for autonomous traveling and / or working of a robot. In combination with a mobile robot, the device according to the present invention enables autonomous movement and / or autonomous detection of component failures. The apparatus according to the present invention can be used for manufacturing and safety monitoring for the purpose of avoiding accidents including but not limited to collisions between robots, manufacturing parts, and living things. In robotics, safe and direct interaction between humans and robots is often a challenge. This is because a robot may seriously injure a person when it does not recognize the person. The device according to the invention can help the robot to position objects and humans well and fast, enabling safe interaction. Assuming that the device according to the present invention has a passive nature, the device according to the present invention is advantageous over active devices and / or existing ones such as radar, ultrasound, 2D camera, IR detection, etc. Complementary use with the solution may be possible. A specific advantage of the device according to the invention is that the possibility of signal interference is low. Therefore, a plurality of sensors can work simultaneously in the same environment without risk of signal interference. Thereby, the apparatus according to the present invention can generally be useful in automobiles, mining, steel making, etc., and in highly automated manufacturing environments that are not limited thereto. The apparatus according to the present invention can be used for quality control in manufacturing as a combination with other sensors such as 2D imaging, radar, ultrasonic waves, IR, etc. for the purpose of quality control. Furthermore, the device according to the invention can be used for the evaluation of surface quality, such as investigation of surface uniformity of products or compliance with specified dimensions, from the micrometer range to the meter range. Other quality control applications can also be realized. In a manufacturing environment, the device according to the invention is particularly useful for processing natural products such as foodstuffs or wood with a complex three-dimensional structure to avoid increasing waste. Furthermore, the device according to the invention can be used for monitoring the filling level of tanks, silos and the like.

さらに、本発明に係る装置は、ポーリング、航空機、船舶、宇宙船、および他の交通用途に使用可能である。したがって、交通用途の背景において上述した用途のほか、航空機、車両等に用いる受動追跡システムが挙げられる。移動物体の速度および/または方向のモニタリングに対して、本発明に係る少なくとも1つの検出器等、本発明に係る少なくとも1つの装置を使用することが実現可能である。具体的には、地上、海上、および宇宙を含む空中での高速移動物体の追跡が挙げられる。本発明に係る少なくとも1つの検出器等、本発明に係る少なくとも1つの装置は具体的に、静止および/または移動装置に搭載可能である。本発明に係る少なくとも1つの装置の出力信号は、たとえば別の物体の自律または誘導移動のための誘導機構と組み合わせることができる。したがって、追跡物体と操縦物体との間の衝突を回避または許可する用途が実現可能である。本発明に係る装置は一般的に、必要な計算パワーが低く、瞬時に応答し、たとえばレーダ等の能動システムと比較して検出および阻止が一般的に困難な検出システムの受動的な性質を有するため、有用かつ好都合である。本発明に係る装置は、たとえば速度制御および航空管制装置に特に有用であるが、これらに限定されない。   Furthermore, the device according to the invention can be used for polling, aircraft, ships, spacecraft and other traffic applications. Therefore, in addition to the applications described above in the context of traffic applications, there are passive tracking systems used for aircraft, vehicles, and the like. It is feasible to use at least one device according to the invention, such as at least one detector according to the invention, for monitoring the speed and / or direction of a moving object. Specifically, tracking high-speed moving objects in the air including the ground, the sea, and space. In particular, at least one device according to the present invention, such as at least one detector according to the present invention, can be mounted on a stationary and / or moving device. The output signal of at least one device according to the invention can be combined, for example, with a guidance mechanism for autonomous or guided movement of another object. Therefore, an application for avoiding or allowing a collision between the tracking object and the control object can be realized. The device according to the invention generally has the passive nature of a detection system which requires a low computational power, responds instantaneously and is generally difficult to detect and block compared to an active system such as a radar, for example. Therefore, it is useful and convenient. The device according to the present invention is particularly useful for, for example, speed control and air traffic control devices, but is not limited thereto.

本発明に係る装置は一般的に、受動的な用途に使用可能である。受動的な用途としては、港湾または危険区域における船舶の誘導および離着陸時の航空機の誘導等が挙げられる。ここでは、固定された既知の能動ターゲットを用いて、精密な誘導を行うようにしてもよい。以上は、採鉱車両等、危険ではあるものの明確に定められた経路を走行する車両にも使用可能である。   The device according to the invention can generally be used for passive applications. Passive applications include ship guidance in harbors or hazardous areas and aircraft guidance during takeoff and landing. Here, precise guidance may be performed using a fixed known active target. The above can also be used for vehicles that travel on a clearly defined route although they are dangerous, such as mining vehicles.

さらに、上記概説の通り、本発明に係る装置は、ゲームの分野において使用可能である。したがって、本発明に係る装置は、その内容に移動を組み込んだソフトウェアとの組み合わせによる移動検出等、サイズ、色、形状等が同じまたは異なる複数の物体との併用に対して受動的とすることができる。特に、グラフィック出力に移動を実装する用途が実現可能である。さらに、本発明に係る装置のうちの1つまたは複数のジェスチャまたは顔認識への使用等によって、本発明に係る装置のコマンドを付与する用途が実現可能である。本発明に係る装置は、能動システムと組み合わせることにより、たとえば微光条件または周囲条件の増強が必要な他の状況において動作するようにしてもよい。この追加または代替として、本発明に係る装置のうちの1つまたは複数は、1つまたは複数のIRまたはVIS光源と組み合わせることも可能である。また、本発明に係る検出器と特殊な装置とを組み合わせることも可能であり、たとえば特殊な色、形状、他の装置に対する相対位置、移動速度、光、装置上で光源を変調するための周波数、表面特性、使用材料、反射特性、透明度、吸収特性等、システムおよびそのソフトウェアによって容易に区別可能であるが、これらに限定されない。この装置は、いくつかある可能性の中で特に、杖、ラケット、クラブ、銃、ナイフ、ホイール、リング、ハンドル、ボトル、ボール、グラス、花瓶、スプーン、フォーク、立方体、サイコロ、指、指人形、テディ、ビーカー、ペダル、スイッチ、グローブ、宝石、楽器、またはピック、ドラムスティック等の楽器を演奏する補助装置に類似している可能性がある。また、他の選択肢も実現可能である。   Furthermore, as outlined above, the device according to the present invention can be used in the field of games. Therefore, the apparatus according to the present invention may be passive with respect to combined use with a plurality of objects of the same or different sizes, colors, shapes, etc., such as movement detection in combination with software incorporating movement in its contents. it can. In particular, it is possible to implement applications that implement movement in graphic output. Furthermore, the use of the device according to the present invention can be realized by use of one or more gestures or face recognition among the devices according to the present invention. The device according to the present invention may be combined with an active system to operate in other situations where, for example, low light conditions or ambient conditions need to be enhanced. As an addition or alternative to this, one or more of the devices according to the invention can be combined with one or more IR or VIS light sources. It is also possible to combine the detector according to the present invention with a special device, for example, special color, shape, relative position with respect to other devices, moving speed, light, frequency for modulating the light source on the device. , Surface characteristics, materials used, reflection characteristics, transparency, absorption characteristics, etc., which can be easily distinguished by the system and its software, but are not limited thereto. This device, among other possibilities, cane, racket, club, gun, knife, wheel, ring, handle, bottle, ball, glass, vase, spoon, fork, cube, dice, finger, finger puppet , Teddy, Beaker, Pedal, Switch, Glove, Jewel, Musical Instrument, or Auxiliary Device for playing musical instruments such as picks, drumsticks, etc. Other options are also possible.

さらに、本発明に係る装置は一般的に、建造、建設、および地図作成の分野において使用可能である。したがって、本発明に係る1つまたは複数の装置は一般的に、たとえば地方または建造物等の環境エリアの測定および/またはモニタリングに使用可能である。ここで、本発明に係る装置のうちの1つまたは複数は、他の方法および装置と組み合わせるようにしてもよいし、単独で使用することによって、建築プロジェクト、変化する物体、家屋等の進展および精度をモニタリングすることも可能である。本発明に係る装置は、スキャンした環境の3次元モデルの生成に使用することにより、地上または空中の両者から、室内、街路、家屋、地域、または地形の地図を構成することができる。また、可能な応用分野は、建設、地図作成、不動産管理、測地等であってもよい。   Furthermore, the device according to the invention can generally be used in the fields of construction, construction and cartography. Thus, one or more devices according to the present invention can generally be used for measuring and / or monitoring environmental areas such as, for example, rural areas or buildings. Here, one or more of the devices according to the present invention may be combined with other methods and devices, or used alone to develop architectural projects, changing objects, houses, etc. It is also possible to monitor the accuracy. The apparatus according to the present invention can be used to generate a three-dimensional model of a scanned environment, thereby constructing a map of a room, a street, a house, a region, or a terrain from both the ground and the air. Possible application fields may be construction, cartography, real estate management, geodetic surveys, etc.

本発明に係る1つまたは複数の装置は、積層造形および/または3D印刷等のため、CADまたは類似のソフトウェアとの組み合わせ等により、物体のスキャンにさらに使用できる。ここでは、たとえばx、y、もしくはz方向またはこれら方向の同時組み合わせ等の任意の組み合わせにおいて、本発明に係る装置の高い寸法精度を利用するようにしてもよい。さらに、本発明に係る装置は、パイプライン検査ゲージ等、検査および保守に使用可能である。   One or more devices according to the present invention can be further used for scanning an object, such as in combination with CAD or similar software, such as for additive manufacturing and / or 3D printing. Here, the high dimensional accuracy of the device according to the present invention may be used in any combination, for example, in the x, y, or z direction or in any combination of these directions. Furthermore, the apparatus according to the present invention can be used for inspection and maintenance, such as a pipeline inspection gauge.

上記概説の通り、本発明に係る装置は、製造、品質管理、または製品識別もしくはサイズ識別(たとえば、廃棄物削減等のための最適な配置またはパッケージの探索)等の識別用途にさらに使用可能である。さらに、本発明に係る装置は、物流用途に使用可能である。したがって、本発明に係る装置を用いることにより、荷役または梱包コンテナまたは車両を最適化するようにしてもよい。さらに、本発明に係る装置は、製造分野における表面損傷のモニタリングもしくは管理、レンタカー等のレンタル物体のモニタリングもしくは管理、ならびに/または損害査定等の保険用途に使用可能である。さらに、本発明に係る装置は、特にロボットとの組み合わせによる最適な材料の取り扱い等、材料、物体、またはツールのサイズの識別に使用可能である。さらに、本発明に係る装置は、たとえばタンクの充填レベルの観測等、生産のプロセス制御に使用可能である。さらに、本発明に係る装置は、タンク、パイプ、反応炉、ツール等の製造資産の保守に使用可能であるが、これらに限定されない。さらに、本発明に係る装置は、3D品質マークの分析に使用可能である。さらに、本発明に係る装置は、歯のインレー、歯列矯正具、プロテーゼ、衣服等のオーダーメイド品の製造に使用可能である。また、本発明に係る装置は、1つまたは複数の3Dプリンタと組み合わせることにより、迅速な試作、3Dコピー等を行うようにしてもよい。さらに、本発明に係る装置は、製品侵害防止および偽造防止等のため、1つまたは複数の物品の形状の検出に使用可能である。   As outlined above, the device according to the present invention can be further used for identification applications such as manufacturing, quality control, or product identification or size identification (eg searching for an optimal arrangement or package for waste reduction etc.). is there. Furthermore, the apparatus according to the present invention can be used for logistics applications. Therefore, the cargo handling or packing container or vehicle may be optimized by using the apparatus according to the present invention. Furthermore, the apparatus according to the present invention can be used for insurance applications such as monitoring or management of surface damage in the manufacturing field, monitoring or management of rental objects such as rental cars, and / or damage assessment. Furthermore, the device according to the present invention can be used to identify the size of a material, object or tool, such as optimal material handling, especially in combination with a robot. Furthermore, the apparatus according to the present invention can be used for production process control, for example, observation of the filling level of a tank. Furthermore, the apparatus according to the present invention can be used for maintenance of manufacturing assets such as tanks, pipes, reaction furnaces, and tools, but is not limited thereto. Furthermore, the device according to the invention can be used for the analysis of 3D quality marks. Furthermore, the apparatus according to the present invention can be used for the manufacture of custom-made products such as tooth inlays, orthodontic appliances, prostheses, and clothes. In addition, the apparatus according to the present invention may be combined with one or a plurality of 3D printers to perform quick trial production, 3D copying, and the like. Furthermore, the apparatus according to the present invention can be used for detecting the shape of one or a plurality of articles in order to prevent product infringement and counterfeiting.

したがって、具体的に、本願は、写真撮影の分野に適用可能である。このため、検出器は、写真撮影装置、具体的にはデジタルカメラの一部であってもよい。具体的に、検出器は、3D写真撮影、具体的にはデジタル3D写真撮影に使用可能である。このため、検出器は、デジタル3Dカメラを構成していてもよいし、デジタル3Dカメラの一部であってもよい。本明細書において、写真撮影という用語は一般的に、少なくとも1つの物体の画像情報を取得する技術を表す。さらに、本明細書において、カメラは一般的に、写真撮影を行うように構成された装置である。さらに、本明細書において、デジタル写真撮影という用語は一般的に、照射の強度および/または色を示す電気信号、好ましくはデジタル電気信号を生成するように構成された複数の感光要素を用いて少なくとも1つの物体の画像情報を取得する技術を表す。さらに、本明細書において、3D写真撮影という用語は一般的に、3つの空間次元において少なくとも1つの物体の画像情報を取得する技術を表す。したがって、3Dカメラは、3D写真撮影を行うように構成された装置である。カメラは一般的に、単一の3D画像等の単一の画像を取得するように構成されていてもよいし、一連の画像等の複数の画像を取得するように構成されていてもよい。このため、カメラは、デジタル動画像列の取得等、ビデオ用途に適応されたビデオカメラであってもよい。   Therefore, specifically, the present application is applicable to the field of photography. For this reason, the detector may be a part of a photography apparatus, specifically a digital camera. In particular, the detector can be used for 3D photography, specifically digital 3D photography. For this reason, the detector may constitute a digital 3D camera or may be a part of the digital 3D camera. In this specification, the term photography generally refers to a technique for obtaining image information of at least one object. Further, in this specification, a camera is generally a device configured to take a picture. Further, in this specification, the term digital photography generally refers to an electrical signal indicative of the intensity and / or color of illumination, preferably at least using a plurality of photosensitive elements configured to generate a digital electrical signal. This represents a technique for acquiring image information of one object. Further, in this specification, the term 3D photography generally refers to a technique for acquiring image information of at least one object in three spatial dimensions. Accordingly, the 3D camera is a device configured to perform 3D photography. The camera may generally be configured to acquire a single image, such as a single 3D image, or may be configured to acquire a plurality of images, such as a series of images. For this reason, the camera may be a video camera adapted for video use such as acquisition of a digital moving image sequence.

したがって、一般的に、本発明は、少なくとも1つの物体を撮像するカメラ、具体的にはデジタルカメラ、より具体的には3Dカメラまたはデジタル3Dカメラをさらに表す。上記概説の通り、本明細書において、撮像という用語は一般的に、少なくとも1つの物体の画像情報の取得を表す。カメラは、本発明に係る少なくとも1つの検出器を備える。上記概説の通り、カメラは、単一の画像を取得するように構成されていてもよいし、画像列等の複数の画像、好ましくはデジタル動画列を取得するように構成されていてもよい。これにより、一例として、カメラは、ビデオカメラであってもよいし、ビデオカメラを含んでいてもよい。後者の場合、カメラは、画像列を格納するためのデータメモリを備えているのが好ましい。   Thus, in general, the present invention further represents a camera that images at least one object, specifically a digital camera, more specifically a 3D camera or a digital 3D camera. As outlined above, in this specification, the term imaging generally refers to the acquisition of image information of at least one object. The camera comprises at least one detector according to the invention. As outlined above, the camera may be configured to acquire a single image, or may be configured to acquire a plurality of images, such as an image sequence, preferably a digital video sequence. Thereby, as an example, the camera may be a video camera or may include a video camera. In the latter case, the camera preferably comprises a data memory for storing the image sequence.

上記少なくとも1つの光学センサ、具体的には上述のFiPセンサを有する検出器または検出器を含むカメラは、1つまたは複数の付加的なセンサとさらに組み合わせるようにしてもよい。これにより、上記少なくとも1つの光学センサ、具体的には上記少なくとも1つのFiPセンサを有する少なくとも1つのカメラは、従来のカメラおよび/またはたとえばステレオカメラであってもよい少なくとも1つの別のカメラと組み合わせるようにしてもよい。さらに、上記少なくとも1つの光学センサ、具体的には上記少なくとも1つのFiPセンサを有する1つまたは2つ以上のカメラは、1つまたは2つ以上のデジタルカメラと組み合わせるようにしてもよい。一例としては、1つまたは2つ以上の2次元デジタルカメラを用いることによって、本発明に係る検出器により得られたステレオ情報および奥行き情報から奥行きを計算するようにしてもよい。   The at least one optical sensor, in particular a detector or a camera comprising a FiP sensor as described above, may be further combined with one or more additional sensors. Thereby, the at least one optical sensor, in particular the at least one camera comprising the at least one FiP sensor, is combined with a conventional camera and / or at least one other camera, which may be for example a stereo camera You may do it. Further, the one or more cameras having the at least one optical sensor, specifically the at least one FiP sensor, may be combined with one or more digital cameras. As an example, the depth may be calculated from stereo information and depth information obtained by the detector according to the present invention by using one or two or more two-dimensional digital cameras.

具体的には自動車技術の分野において、カメラが故障した場合、本発明に係る検出器は依然として、視野内の物体の距離の測定等、物体の縦方向座標の測定を持続していてもよい。このため、自動車技術の分野において本発明に係る検出器を使用することにより、フェイルセーフ機能が実装されるようになっていてもよい。具体的には自動車用途の場合、本発明に係る検出器には、データを削減できる利点がある。このため、従来のデジタルカメラのカメラデータと比較して、本発明に係る検出器すなわち上記少なくとも1つの光学センサ、具体的には上記少なくとも1つのFiPセンサを有する検出器を用いて得られたデータは、データ量が非常に少ないデータであってもよい。具体的には自動車技術の分野において、自動車データネットワークは一般的に、データ伝送速度の点で性能が劣っているため、データ量は削減するのが好ましい。   Specifically, in the field of automotive technology, if a camera fails, the detector according to the invention may still continue to measure the longitudinal coordinates of the object, such as measuring the distance of the object in the field of view. For this reason, the fail-safe function may be implemented by using the detector according to the present invention in the field of automobile technology. Specifically, for automotive applications, the detector according to the present invention has the advantage of reducing data. Therefore, compared with the camera data of a conventional digital camera, the data obtained using the detector according to the present invention, that is, the detector having the at least one optical sensor, specifically, the at least one FiP sensor. May be data with a very small amount of data. Specifically, in the field of automotive technology, automotive data networks generally have poor performance in terms of data transmission speed, so it is preferable to reduce the amount of data.

本発明に係る検出器は、1つまたは複数の光源をさらに備えていてもよい。したがって、検出器は、上記少なくとも1つの物体を照射する1つまたは複数の光源を備えることで、たとえば照射光が物体により反射されるようになっていてもよい。光源は、連続光源であってもよいし、パルス光源等の不連続放出光源であってもよい。また、光源は、均一な光源であってもよいし、不均一な光源またはパターン化された光源であってもよい。これにより、一例として、検出器が少なくとも1つの縦方向座標を測定して少なくとも1つの物体の奥行きの測定等を行うには、検出器が取得した照射またはシーン中にコントラストがあると都合が良い。自然照射によりコントラストが存在しない場合、検出器は、上記少なくとも1つの任意選択としての光源を介して、好ましくはパターン化された光により、シーンおよび/またはシーン内の少なくとも1つの物体の全部または一部を照射するように構成されていてもよい。これにより、一例として、光源は、パターンをシーン中、壁上、または少なくとも1つの物体上に投射することにより、検出器が取得する画像内のコントラストを高くするようにしてもよい。   The detector according to the present invention may further comprise one or more light sources. Therefore, the detector may include one or more light sources that irradiate the at least one object, so that, for example, the irradiation light is reflected by the object. The light source may be a continuous light source or a discontinuous emission light source such as a pulsed light source. The light source may be a uniform light source, a non-uniform light source, or a patterned light source. Thus, as an example, in order for the detector to measure at least one longitudinal coordinate to measure the depth of at least one object, etc., it is convenient if there is contrast in the illumination or scene acquired by the detector. . In the absence of contrast due to natural illumination, the detector is able to detect all or one of the scene and / or at least one object in the scene, preferably by patterned light, via the at least one optional light source. You may be comprised so that a part may be irradiated. Thus, as an example, the light source may increase the contrast in the image acquired by the detector by projecting the pattern onto the scene, on the wall, or onto at least one object.

上記少なくとも1つの任意選択としての光源は一般的に、可視スペクトル域、赤外スペクトル域、または紫外スペクトル域のうちの1つまたは複数の光を放出するようにしてもよい。上記少なくとも1つの光源は、少なくとも赤外スペクトル域の光を放出するのが好ましい。   The at least one optional light source may generally emit one or more lights in the visible spectral range, the infrared spectral range, or the ultraviolet spectral range. The at least one light source preferably emits light in at least the infrared spectral range.

また、検出器は、シーンを自動的に照射するように構成されていてもよい。したがって、評価装置等の検出器は、該検出器またはその一部が取得したシーンの照射を自動的に制御するように構成されていてもよい。これにより、一例として、検出器は、大きなエリアが低コントラストであるため、これらエリア内の奥行き等の縦方向座標の測定が困難である場合に、これを認識するように構成されていてもよい。これらの場合、一例として、検出器は、これらエリアへの1つまたは複数のパターンの投射等、パターン化された光によりこれらのエリアを自動的に照射するように構成されていてもよい。   The detector may also be configured to automatically illuminate the scene. Therefore, a detector such as an evaluation device may be configured to automatically control illumination of the scene acquired by the detector or a part thereof. Thus, as an example, the detector may be configured to recognize when a large area has low contrast and it is difficult to measure longitudinal coordinates such as depth in these areas. . In these cases, as an example, the detector may be configured to automatically illuminate these areas with patterned light, such as projection of one or more patterns onto these areas.

本発明において、表現「位置」は一般的に、物体の1つまたは複数の点の絶対位置および方位のうちの1つまたは複数に関する少なくとも1つの情報を表す。したがって、具体的に、位置は、デカルト座標系等の検出器の座標系において決定されるようになっていてもよい。ただし、この追加または代替として、極座標系および/または球座標系等、他の種類の座標系を使用するようにしてもよい。   In the present invention, the expression “position” generally represents at least one piece of information about one or more of the absolute position and orientation of one or more points of the object. Thus, specifically, the position may be determined in a detector coordinate system such as a Cartesian coordinate system. However, as an addition or alternative, other types of coordinate systems such as a polar coordinate system and / or a spherical coordinate system may be used.

上記概説およびより詳しく以下に概説する通り、本発明は、好ましくはマンマシンインターフェースの分野、スポーツの分野、および/またはコンピュータゲームの分野に適用されるようになっていてもよい。したがって、好ましくは、物体は、好ましくはラケット、クラブ、バット、から成る群から選択される物品であるスポーツ用品、衣類、帽子、靴、から成る群から選択されるようになっていてもよい。また、他の実施形態も実現可能である。   As outlined above and in more detail below, the present invention may preferably be adapted to the field of man-machine interface, sports and / or computer games. Thus, preferably the object may be selected from the group consisting of sports equipment, clothing, hats, shoes, preferably articles selected from the group consisting of rackets, clubs, bats. Other embodiments are also possible.

本明細書において、物体は一般的に、生物および無生物から選定される任意の物体であってもよい。これにより、一例として、少なくとも1つの物体は、1つまたは複数の物品ならびに/または物品の1つもしくは複数の部分を含んでいてもよい。この追加または代替として、物体は、ユーザ等の人間および/または動物の1つまたは複数の身体部位等、1つもしくは複数の生物ならびに/またはその1つもしくは複数の部位であってもよいし、1つもしくは複数の生物ならびに/またはその1つもしくは複数の部位を含んでいてもよい。   As used herein, an object may generally be any object selected from organisms and inanimate objects. Thus, by way of example, at least one object may include one or more articles and / or one or more portions of the articles. Alternatively or alternatively, the object may be one or more organisms and / or one or more parts thereof, such as one or more body parts of a human and / or animal such as a user, It may include one or more organisms and / or one or more sites thereof.

物体の位置を決定する座標系は検出器の座標系であってもよいが、その座標系に関して検出器は、該検出器の光軸がz軸を構成し、また、z軸に垂直かつ互いに垂直なx軸およびy軸を提供可能な座標系を構成するようにしてもよい。一例として、検出器および/または検出器の一部は、この座標系の原点等の特定点に置かれていてもよい。この座標系においては、z軸に平行または逆平行な方向を縦方向と見なし、z軸に沿った座標を縦方向座標と考えるようにしてもよい。また、縦方向に垂直な任意の方向を横方向と考え、xおよび/またはy座標を横方向座標と考えるようにしてもよい。   The coordinate system that determines the position of the object may be the coordinate system of the detector, but with respect to that coordinate system, the detector is such that the optical axis of the detector constitutes the z axis and is perpendicular to the z axis and to each other. You may make it comprise the coordinate system which can provide a vertical x-axis and a y-axis. As an example, the detector and / or part of the detector may be located at a specific point, such as the origin of this coordinate system. In this coordinate system, a direction parallel or antiparallel to the z axis may be regarded as a vertical direction, and a coordinate along the z axis may be considered as a vertical coordinate. Further, any direction perpendicular to the vertical direction may be considered as the horizontal direction, and x and / or y coordinates may be considered as the horizontal direction coordinates.

あるいは、他の種類の座標系を使用するようにしてもよい。これにより、一例としては、光軸がz軸を構成し、z軸からの距離および極角を付加的な座標として使用可能な極座標系を使用するようにしてもよい。この場合も、z軸に平行または逆平行な方向を縦方向と考え、z軸に沿った座標を縦方向座標と考えるようにしてもよい。また、z軸に垂直な任意の方向を横方向と考え、極座標および/または極角を横方向座標と考えるようにしてもよい。   Alternatively, other types of coordinate systems may be used. Thus, as an example, a polar coordinate system may be used in which the optical axis constitutes the z-axis and the distance from the z-axis and the polar angle can be used as additional coordinates. Also in this case, a direction parallel or antiparallel to the z axis may be considered as the vertical direction, and coordinates along the z axis may be considered as the vertical direction coordinates. Further, an arbitrary direction perpendicular to the z-axis may be considered as a lateral direction, and polar coordinates and / or polar angles may be considered as lateral coordinates.

本明細書において、少なくとも1つの物体の位置を決定する検出器は一般的に、該少なくとも1つの物体および/またはその一部の位置に関する少なくとも1つの情報を提供するように構成された装置である。したがって、位置とは、好ましくは検出器の座標系において、物体またはその一部の位置を完全に記述した情報を表していてもよいし、位置を部分的にしか記述していない部分的な情報を表していてもよい。検出器は一般的に、ビーコンデバイスから該検出器へと進む光線等の光線を検出するように構成された装置であってもよい。   As used herein, a detector that determines the position of at least one object is generally a device configured to provide at least one information regarding the position of the at least one object and / or a portion thereof. . Therefore, the position may represent information that completely describes the position of the object or a part thereof, preferably in the coordinate system of the detector, or partial information that only partially describes the position. May be represented. The detector may generally be a device configured to detect a light beam, such as a light beam traveling from the beacon device to the detector.

評価装置および検出器は、全部または一部が単一の装置に組み込まれていてもよい。したがって、一般的には、評価装置も検出器の一部を構成していてもよい。あるいは、評価装置および検出器は、全部または一部が別個の装置として具現化されていてもよい。また、検出器は、別の構成要素を備えていてもよい。   The evaluation device and the detector may be incorporated in whole or in part into a single device. Therefore, in general, the evaluation apparatus may also constitute part of the detector. Alternatively, the evaluation device and the detector may be embodied as separate devices in whole or in part. Moreover, the detector may be provided with another component.

検出器は、固定装置であってもよいし、モバイル装置であってもよい。さらに、検出器は、独立型の装置であってもよいし、コンピュータ、車両、またはその他任意の装置等の別の装置の一部を構成していてもよい。さらに、検出器は、手持ち式の装置であってもよい。検出器の他の実施形態も実現可能である。   The detector may be a fixed device or a mobile device. Further, the detector may be a stand-alone device or may form part of another device such as a computer, vehicle, or any other device. Further, the detector may be a handheld device. Other embodiments of detectors are also feasible.

本明細書において、光学センサは一般的に、光線による該光学センサの照射に応じて少なくとも1つの縦方向センサ信号を生成するように設計された装置である。上記概説およびより詳しく以下に概説する通り、本発明に係る検出器は、好ましくはセンサスタックとして、複数の光学センサを備えているのが好ましい。   As used herein, an optical sensor is generally a device designed to generate at least one longitudinal sensor signal in response to illumination of the optical sensor by a light beam. As outlined above and in more detail below, the detector according to the present invention preferably comprises a plurality of optical sensors, preferably as a sensor stack.

上記少なくとも1つの光学センサは、1つまたは複数の光検出器、好ましくは1つまたは複数の有機光検出器、最も好ましくは、1つまたは複数の固体色素増感有機太陽電池(sDSC)等の1つまたは複数の色素増感有機太陽電池(DSC(色素太陽電池とも称する))を備えていてもよい。したがって、検出器は、好ましくは少なくとも1つの光学センサとして動作する1つまたは複数のDSC(1つまたは複数のsDSC等)、好ましくは少なくとも1つの光学センサとして動作する複数のDSCのスタック(複数のsDSCのスタックが好ましい)を備えていてもよい。この追加または代替として、検出器は、より詳しく以下に概説する通り、他の種類の光学センサを備えていてもよい。   The at least one optical sensor includes one or more photodetectors, preferably one or more organic photodetectors, most preferably one or more solid dye-sensitized organic solar cells (sDSC), etc. One or more dye-sensitized organic solar cells (DSC (also called dye solar cells)) may be provided. Accordingly, the detector preferably has one or more DSCs (such as one or more sDSCs) that operate as at least one optical sensor, preferably a stack of DSCs that operate as at least one optical sensor. a stack of sDSCs is preferred). As an addition or alternative, the detector may comprise other types of optical sensors, as outlined in more detail below.

上記概説の通り、本発明に係る検出器は具体的に、画素化センサまたは画素化光学センサとも称する複数の光学センサを備えていてもよい。具体的に、検出器は、透明な光学センサのスタック等、光学センサのスタックを備えていてもよい。   As outlined above, the detector according to the present invention may specifically comprise a plurality of optical sensors, also referred to as pixelated sensors or pixelated optical sensors. Specifically, the detector may comprise a stack of optical sensors, such as a stack of transparent optical sensors.

したがって、検出器は、光学センサの少なくとも1つのスタックを備えていてもよく、その視野内のシーンの3次元画像を取得するように構成されていてもよい。スタックの光学センサは、同一または均一な吸収スペクトル等、スペクトル特性が同一であってもよい。あるいは、スタックの光学センサは、スペクトル特性が異なっていてもよい。したがって、スタックは、第1のスペクトル感度を有する少なくとも1つの第1の光学センサと、第2のスペクトル感度を有する少なくとも1つの第2の光学センサとを備え、第1のスペクトル感度と第2のスペクトル感度とが異なっていてもよい。スタックは具体的に、スペクトル特性が交互に異なる光学センサを備えていてもよい。検出器は、スペクトル特性が異なる光学センサのセンサ信号を評価することにより、多色3次元画像、好ましくはフルカラー3次元画像を取得するように構成されていてもよい。   Thus, the detector may comprise at least one stack of optical sensors and may be configured to acquire a three-dimensional image of the scene within its field of view. The optical sensors in the stack may have the same spectral characteristics, such as the same or uniform absorption spectrum. Alternatively, the stack optical sensors may have different spectral characteristics. Accordingly, the stack comprises at least one first optical sensor having a first spectral sensitivity and at least one second optical sensor having a second spectral sensitivity, the first spectral sensitivity and the second Spectral sensitivity may be different. Specifically, the stack may include optical sensors having different spectral characteristics. The detector may be configured to acquire a multi-color three-dimensional image, preferably a full-color three-dimensional image, by evaluating sensor signals of optical sensors having different spectral characteristics.

したがって、一般的には、画素化センサ、具体的には透明な画素化センサを用いることにより、上記少なくとも1つの任意選択としての伝達装置、より具体的には検出器の少なくとも1つのレンズまでの異なる距離等、検出器までの異なる距離で画像を記録するようにしてもよい。2つ以上の画素化センサを使用する場合は、検出器までの異なる距離で複数の画像が同時に記録されるようになっていてもよい。レンズまでの距離は、画像の異なる部分の焦点が合うような距離であるのが好ましい。したがって、画像は、フォーカススタッキング、zスタッキング、焦点面合成として既知の画像処理技術に使用することができる。これらの技術の用途として、被写界深度が大きな画像の取得が挙げられ、接写撮影または光学顕微鏡法等の被写界深度が一般的に極浅い撮像技術において特に役立つ。別の用途としては、アルゴリズム、たとえばDFF(Depth from Focus)法またはDFD(Depth from Defocus)法等の畳み込みベースのアルゴリズムを用いた距離情報の取得が挙げられる。また、別の用途としては、画像の最適化による大きな芸術的または科学的メリットの享受が挙げられる。   Thus, in general, by using a pixelated sensor, specifically a transparent pixelated sensor, the at least one optional transmission device, more specifically to at least one lens of the detector. Images may be recorded at different distances to the detector, such as different distances. When two or more pixelated sensors are used, multiple images may be recorded simultaneously at different distances to the detector. The distance to the lens is preferably such that different parts of the image are in focus. Thus, the image can be used in image processing techniques known as focus stacking, z stacking, and focal plane synthesis. Applications of these techniques include obtaining images with a large depth of field, and are particularly useful in imaging techniques where the depth of field is generally very shallow, such as close-up photography or optical microscopy. Another application is the acquisition of distance information using an algorithm, for example, a convolution-based algorithm such as a DFF (Depth from Focus) method or a DFD (Depth from Defocus) method. Another application is the enjoyment of great artistic or scientific benefits from image optimization.

また、複数の画素化センサを有する検出器を用いることにより、複眼または光照射野カメラに匹敵する検出器のレンズまたはレンズ系後方の光照射野を記録するようにしてもよい。したがって、具体的に、検出器は、たとえば同時に、複数の焦点面における画像を取得するように構成された光照射野カメラとして具現化されていてもよい。本明細書において、光照射野という用語は一般的に、カメラの内側等の検出器の内側の光の空間的伝搬を表す。具体的には光学センサのスタックを有する本発明に係る検出器は、レンズ後方等の検出器またはカメラ内の照射野を直接的に記録可能であってもよい。複数の画素化センサは、レンズからの異なる距離で画像を記録するようにしてもよい。たとえばDFFまたはDFD等の畳み込みベースのアルゴリズムを用いることによって、伝搬方向、焦点、およびレンズ後方の光の拡がりをモデル化することができる。レンズ後方の光伝搬のモデル化によって、レンズまでのさまざまな距離での画像の抽出、被写界深度の最適化、さまざまな距離で焦点が合った写真の抽出、または物体の距離の計算が可能である。また、別の情報を抽出するようにしてもよい。   In addition, by using a detector having a plurality of pixelated sensors, the light field behind the lens or lens system of the detector comparable to a compound eye or light field camera may be recorded. Thus, specifically, the detector may be embodied as, for example, a light field camera configured to acquire images at multiple focal planes simultaneously. As used herein, the term light field generally refers to the spatial propagation of light inside a detector, such as inside a camera. Specifically, a detector according to the present invention having a stack of optical sensors may be able to directly record a detector behind the lens or an irradiation field in the camera. Multiple pixelated sensors may record images at different distances from the lens. By using a convolution-based algorithm such as DFF or DFD, the propagation direction, focus, and light spread behind the lens can be modeled. Model light propagation behind the lens to extract images at various distances to the lens, optimize depth of field, extract focused photos at various distances, or calculate object distances It is. Another information may be extracted.

検出器のレンズ後方等、検出器の内側の光伝搬のモデル化および/または記録を行うと、光伝搬に関するこの情報によって、多くの利点が得られる。したがって、光照射野は、検出器が取得したシーンの1つまたは複数の光線のビームパラメータの観点で記録するようにしてもよい。一例としては、記録した各光線に対して、たとえばビームウェスト、焦点としての最小ビームウェスト、レイリー長等の1つもしくは複数のガウスビームパラメータ、または他のビームパラメータ等、2つ以上のビームパラメータを記録するようにしてもよい。また、光線の複数の表現を使用するようにしてもよく、これに応じてビームパラメータを選定するようにしてもよい。   Modeling and / or recording light propagation inside the detector, such as behind the lens of the detector, provides many advantages with this information regarding light propagation. Thus, the light field may be recorded in terms of the beam parameters of one or more rays of the scene acquired by the detector. As an example, for each ray recorded, two or more beam parameters such as one or more Gaussian beam parameters such as a beam waist, a minimum beam waist as a focus, a Rayleigh length, or other beam parameters may be used. It may be recorded. Further, a plurality of representations of light rays may be used, and beam parameters may be selected according to this.

一例としては、光伝搬に関するこの情報によって、画像処理技術を用いた画像スタックの記録後、観測者の位置をわずかに修正することができる。単一の画像では、物体が別の物体の背後に隠れて見えない場合がある。ただし、隠れた物体により散乱された光がセンサのうちの1つまたは複数のレンズに到達して通過する場合、光軸に対するレンズおよび/もしくは像面までの距離の変更または非平面状の像面の使用によって、該物体が可視化される場合がある。観測者の位置の変更は、観測者の位置のわずかな変更によって画像が変化するホログラムを見るのに匹敵していてもよい。   As an example, this information regarding light propagation can slightly modify the position of the observer after recording an image stack using image processing techniques. In a single image, an object may not be visible behind another object. However, if light scattered by a hidden object reaches and passes through one or more of the sensors, the distance to the lens and / or image plane relative to the optical axis is changed or the non-planar image plane May cause the object to be visualized. Changing the observer's position may be comparable to viewing a hologram whose image changes with a slight change in the observer's position.

さらに、レンズ後方の光伝搬のモデル化等による検出器内側の光伝搬に関する情報によって、個別の光学センサが記録した各画像を格納する従来の技術よりもコンパクトに画像情報を格納することが可能であってもよい。各光学センサのすべての画像を格納するためのメモリ要件は通常、センサ数と画素数との積に対応する。また、光伝搬のメモリ要件は、モデル化光線数と光線当たりのパラメータ数との積に対応する。光線の一般的なモデル関数は、ガウス関数、ローレンツ関数、ベッセル関数、特に球ベッセル関数、物理学において回折効果を記述するのに通常用いる他の関数、または点拡がり関数、線拡がり関数、もしくはエッジ拡がり関数等、DFD技術において用いられる通常の拡がり関数であってもよい。   Furthermore, it is possible to store image information more compactly than the conventional technique of storing each image recorded by an individual optical sensor by information on light propagation inside the detector by modeling light propagation behind the lens. There may be. The memory requirement for storing all images of each optical sensor typically corresponds to the product of the number of sensors and the number of pixels. The light propagation memory requirement also corresponds to the product of the number of modeled rays and the number of parameters per ray. Common model functions for rays are Gaussian, Lorentz, Bessel, especially spherical Bessel, other functions commonly used to describe diffraction effects in physics, or point spread, line spread, or edge A normal spreading function used in the DFD technique, such as a spreading function, may be used.

さらに、複数の画素化センサを用いることによって、画像記録後の画像処理ステップにおけるレンズ誤差の補正が可能である。光学機器は、レンズ誤差の補正が必要な場合、高価で構成が困難となる場合が多い。これらは、顕微鏡および望遠鏡において特に問題となる。顕微鏡において、典型的なレンズ誤差は、光軸までの距離が異なる光線の異なる歪み(球面収差)である。望遠鏡においては、大気の温度が変化すると、焦点が変動する場合がある。球面収差等の静的な誤差および生産に起因する別の誤差は、校正ステップにおいて誤差を決定した後、画素およびセンサの固定集合等の固定画像処理または光伝搬情報を用いたより複雑な処理技術を用いて補正するようにしてもよい。レンズ誤差が時間に大きく依存する場合すなわち望遠鏡において気象条件に依存する場合、該レンズ誤差は、レンズ後方の光伝搬の使用、被写界深度が拡張された画像の計算、DFF技術の使用等によって補正するようにしてもよい。   Further, by using a plurality of pixelated sensors, it is possible to correct a lens error in an image processing step after image recording. Optical devices are often expensive and difficult to construct when lens error correction is required. These are particularly problematic in microscopes and telescopes. In a microscope, a typical lens error is a different distortion (spherical aberration) of a light beam with a different distance to the optical axis. In a telescope, the focus may fluctuate when the atmospheric temperature changes. Static errors such as spherical aberration and other errors due to production are determined in the calibration step, then fixed image processing such as a fixed set of pixels and sensors or more complex processing techniques using light propagation information. You may make it correct | amend using. If the lens error is highly time dependent, i.e. it depends on the weather conditions in the telescope, the lens error is due to the use of light propagation behind the lens, the calculation of images with extended depth of field, the use of DFF technology, etc. You may make it correct | amend.

上記概説の通り、本発明に係る検出器は、色の検出がさらに可能であってもよい。複数の画素化センサのスタックにおける色検出のため、この一連のスタックは、いわゆるベイヤーパターンと同等または類似の吸収特性が異なる画素を有していてもよく、補間技術によって色情報が得られるようになっていてもよい。別の方法では、交互色のセンサを使用し、スタックの異なるセンサが異なる色を記録するようになっていてもよい。ベイヤーパターンにおいては、同色画素間で色が補間されるようになっていてもよい。また、センサのスタックにおいては、色および輝度等の画像情報についても補間技術によって取得可能である。   As outlined above, the detector according to the present invention may further be capable of color detection. For color detection in a stack of pixelated sensors, this series of stacks may have pixels with different or similar absorption characteristics to a so-called Bayer pattern so that color information can be obtained by interpolation techniques. It may be. Another method may be to use alternating color sensors so that different sensors in the stack record different colors. In the Bayer pattern, colors may be interpolated between pixels of the same color. Also, in the sensor stack, image information such as color and brightness can be acquired by interpolation techniques.

評価装置は、1つもしくは複数の特定用途向け集積回路(ASIC)等の1つもしくは複数の集積回路ならび/または1つもしくは複数のコンピュータ、好ましくは1つもしくは複数のマイクロコンピュータおよび/もしくはマイクロコントローラ等の1つもしくは複数のデータ処理装置であってもよいし、このような集積回路ならびに/またはデータ処理装置を備えていてもよい。1つもしくは複数のAD変換器ならびに/または1つもしくは複数のフィルタ等、センサ信号の受信および/または前処理を行う1つまたは複数の装置等の1つまたは複数の前処理装置および/またはデータ取得装置等、別の構成要素が備わっていてもよい。さらに、評価装置は、電流および/または電圧を測定する1つまたは複数の測定装置等、1つまたは複数の測定装置を備えていてもよい。これにより、一例として、評価装置は、画素の電流および/または電圧を測定する1つまたは複数の測定装置を備えていてもよい。さらに、評価装置は、1つまたは複数のデータ記憶装置を備えていてもよい。評価装置は、1つもしくは複数の無線インターフェースならびに/または1つもしくは複数の有線インターフェース等、1つまたは複数のインターフェースを備えていてもよい。   The evaluation device is one or more integrated circuits such as one or more application specific integrated circuits (ASICs) and / or one or more computers, preferably one or more microcomputers and / or microcontrollers. One or a plurality of data processing devices may be included, and such an integrated circuit and / or data processing device may be provided. One or more pre-processing devices and / or data, such as one or more devices that receive and / or pre-process sensor signals, such as one or more AD converters and / or one or more filters. Another component, such as an acquisition device, may be provided. Furthermore, the evaluation device may comprise one or more measuring devices, such as one or more measuring devices for measuring current and / or voltage. Thereby, as an example, the evaluation apparatus may include one or a plurality of measurement apparatuses that measure the current and / or voltage of the pixel. Furthermore, the evaluation device may comprise one or more data storage devices. The evaluation device may comprise one or more interfaces, such as one or more wireless interfaces and / or one or more wired interfaces.

上記少なくとも1つの評価装置は、本発明に係る方法の1つまたは複数またはすべての方法ステップを実行または支援するように構成された少なくとも1つのコンピュータプログラム等、少なくとも1つのコンピュータプログラムを実行するように構成されていてもよい。一例としては、センサ信号を入力変数として用いることにより、物体の位置を決定可能な1つまたは複数のアルゴリズムが実装されるようになっていてもよい。   The at least one evaluation device is adapted to execute at least one computer program, such as at least one computer program configured to execute or support one or more or all method steps of the method according to the invention. It may be configured. As an example, one or more algorithms that can determine the position of an object may be implemented by using sensor signals as input variables.

評価装置は、表示、視覚化、分析、配信、通信、または光学センサおよび/もしくは該評価装置が取得した情報等の別の処理のうちの1つまたは複数を行う際に使用可能な少なくとも1つの別のデータ処理装置に接続可能であるか、またはこのようなデータ処理装置を備えていてもよい。一例として、データ処理装置は、ディスプレイ、プロジェクタ、モニタ、LCD、TFT、スピーカ、多チャンネル音響システム、LEDパターン、または別の視覚化装置のうちの少なくとも1つに接続されていてもよいし、組み込まれていてもよい。さらには、電子メール、テキストメッセージ、電話、Bluetooth、Wi−Fi、赤外線、またはインターネットインターフェース、ポート、または接続のうちの1つまたは複数を用いて暗号化または非暗号化情報を送信可能な通信装置または通信インターフェース、コネクタまたはポートのうちの少なくとも1つに接続されていてもよいし、組み込まれていてもよい。さらには、プロセッサ、グラフィックプロセッサ、CPU、OMAP(Open Multimedia Applications Platform(商標))、集積回路、AppleのAシリーズもしくはSamsungのS3C2シリーズといった製品等のシステムオンチップ、マイクロコントローラもしくはマイクロプロセッサ、ROM、RAM、EEPROM、もしくはフラッシュメモリ等の1つもしくは複数のメモリブロック、発振器もしくは位相ロックループ等のタイミング源、カウンタタイマー、実時間タイマー、パワーオンリセットジェネレータ、電圧レギュレータ、電力管理回路、またはDMAコントローラのうちの少なくとも1つに接続されていてもよいし、組み込まれていてもよい。さらに、個々のユニットは、AMBAバス等のバスによって接続されていてもよい。   The evaluation device is at least one that can be used in performing one or more of display, visualization, analysis, distribution, communication, or another process such as an optical sensor and / or information acquired by the evaluation device It can be connected to another data processing device or it may comprise such a data processing device. As an example, the data processing device may be connected to or incorporated in at least one of a display, projector, monitor, LCD, TFT, speaker, multi-channel acoustic system, LED pattern, or another visualization device. It may be. Further, a communication device capable of transmitting encrypted or non-encrypted information using one or more of electronic mail, text message, telephone, Bluetooth, Wi-Fi, infrared, or Internet interface, port, or connection Alternatively, it may be connected to or incorporated in at least one of a communication interface, a connector or a port. Furthermore, systems such as processors, graphic processors, CPUs, OMAP (Open Multimedia Applications Platform ™), integrated circuits, Apple's A series or Samsung's S3C2 series products such as system on chip, microcontroller or microprocessor, ROM, RAM One or more memory blocks such as EEPROM or flash memory, timing source such as oscillator or phase lock loop, counter timer, real time timer, power on reset generator, voltage regulator, power management circuit, or DMA controller May be connected to or incorporated in at least one of the above. Furthermore, the individual units may be connected by a bus such as an AMBA bus.

評価装置および/またはデータ処理装置は、シリアルもしくはパラレルインターフェースもしくはポート、USB、セントロニクスポート、FireWire、HDMI、イーサネット、Bluetooth、RFID、Wi−Fi、USART、もしくはSPIのうちの1つもしくは複数等の外部インターフェースもしくはポート、ADCもしくはDACのうちの1つもしくは複数等のアナログインターフェースもしくはポート、またはCameraLink等のRGBインターフェースを用いた2Dカメラ装置等の別の装置との標準化インターフェースもしくはポートによって接続されていてもよいし、このようなインターフェースもしくはポートを有していてもよい。評価装置および/またはデータ処理装置は、プロセッサ間インターフェースもしくはポート、FPGA−FPGAインターフェース、またはシリアルもしくはパラレルインターフェースもしくはポートのうちの1つまたは複数によってさらに接続されていてもよい。さらに、評価装置およびデータ処理装置は、光ディスクドライブ、CD−RWドライブ、DVD+RWドライブ、フラッシュドライブ、メモリカード、ディスクドライブ、ハードディスクドライブ、固体ディスク、または固体ハードディスクのうちの1つまたは複数に接続されていてもよい。   The evaluation device and / or data processing device can be an external device such as one or more of a serial or parallel interface or port, USB, Centronics port, FireWire, HDMI, Ethernet, Bluetooth, RFID, Wi-Fi, USART, or SPI. Even if connected by a standardized interface or port with another device such as an interface or port, an analog interface or port such as one or more of ADC or DAC, or a 2D camera device using RGB interface such as CameraLink It may also have such an interface or port. The evaluation device and / or data processing device may be further connected by one or more of an interprocessor interface or port, an FPGA-FPGA interface, or a serial or parallel interface or port. Further, the evaluation device and the data processing device are connected to one or more of an optical disk drive, a CD-RW drive, a DVD + RW drive, a flash drive, a memory card, a disk drive, a hard disk drive, a solid disk, or a solid hard disk. May be.

評価装置および/またはデータ処理装置は、電話コネクタ、RCAコネクタ、VGAコネクタ、オスメスコネクタ、USBコネクタ、HDMIコネクタ、8P8Cコネクタ、BCNコネクタ、IEC60320C14コネクタ、光ファイバコネクタ、Dサブコネクタ、RFコネクタ、同軸コネクタ、SCARTコネクタ、XLRコネクタのうちの1つもしくは複数等、1つもしくは複数の別の外部コネクタによる接続もしくはこのようなコネクタを有すること、ならびに/またはこれらコネクタのうちの1つもしくは複数に適した少なくとも1つのソケットを組み込むことが可能である。   Evaluation device and / or data processing device includes telephone connector, RCA connector, VGA connector, male / female connector, USB connector, HDMI connector, 8P8C connector, BCN connector, IEC60320C14 connector, optical fiber connector, D-sub connector, RF connector, coaxial connector Suitable for one or more of one or more of these connectors, such as one or more of SCART connectors, one or more of XLR connectors, connected by or having one or more other external connectors It is possible to incorporate at least one socket.

光学センサ、光学系、評価装置、通信装置、データ処理装置、インターフェース、システムオンチップ、表示装置、または別の電子装置のうちの1つまたは複数等、本発明に係る検出器、評価装置、またはデータ処理装置のうちの1つまたは複数を組み込んだ単一の装置の可能な実施形態は、携帯電話、パーソナルコンピュータ、タブレットPC、テレビ、ゲームコンソール、または別の娯楽装置である。別の実施形態において、より詳しく以下に概説する3Dカメラ機能は、装置のハウジングまたは外観に顕著な差異なく従来の2Dデジタルカメラとともに利用可能な装置に組み込まれていてもよく、ユーザに顕著な差異は、3D情報の取得および/または処理の機能のみであってもよい。   One or more of an optical sensor, an optical system, an evaluation device, a communication device, a data processing device, an interface, a system-on-chip, a display device, or another electronic device, such as a detector, an evaluation device, or Possible embodiments of a single device incorporating one or more of the data processing devices are a mobile phone, a personal computer, a tablet PC, a television, a game console, or another entertainment device. In another embodiment, the 3D camera functions outlined below in more detail may be incorporated into devices available with conventional 2D digital cameras without noticeable differences in device housing or appearance, and may be noticeable to the user. May be only 3D information acquisition and / or processing functions.

具体的に、検出器および/またはその一部、たとえば評価装置および/またはデータ処理装置を組み込んだ一実施形態は、3Dカメラの機能のために表示装置、データ処理装置、光学センサ、任意選択としてセンサ光学系、および評価装置を組み込んだ携帯電話であってもよい。本発明に係る検出器は具体的に、娯楽装置および/または携帯電話等の通信装置への組み込みに適していてもよい。   In particular, an embodiment incorporating a detector and / or part thereof, for example an evaluation device and / or a data processing device, may optionally include a display device, a data processing device, an optical sensor, for a 3D camera function. It may be a mobile phone incorporating a sensor optical system and an evaluation device. The detector according to the invention may specifically be suitable for incorporation into entertainment devices and / or communication devices such as mobile phones.

本発明の別の実施形態は、自動車、自律走行、またはDaimlerのインテリジェントドライブシステム等の自動車安全システムに使用する装置に対する検出器またはその一部、たとえば評価装置および/またはデータ処理装置の組み込みであってもよく、一例として、光学センサ、任意選択として1つまたは複数の光学系、評価装置、任意選択として通信装置、任意選択としてデータ処理装置、任意選択として1つもしくは複数のインターフェース、任意選択としてシステムオンチップ、任意選択として1つもしくは複数の表示装置、または任意選択として別の電子装置のうちの1つまたは複数を組み込んだ装置は、車両、自動車、トラック、列車、自転車、航空機、船舶、バイクの一部であってもよい。自動車用途において、この装置の自動車設計への組み込みには、外部または内部からの視認性が最小限での光学センサ、任意選択として光学系、または装置の組み込みが必要であってもよい。検出器またはその一部、たとえば評価装置および/またはデータ処理装置は、自動車設計へのこのような組み込みに特に適していてもよい。   Another embodiment of the present invention is the incorporation of a detector or part thereof, such as an evaluation device and / or a data processing device, into a device for use in an automotive safety system such as an automobile, autonomous driving, or Daimler's intelligent drive system. As an example, an optical sensor, optionally one or more optical systems, an evaluation device, optionally a communication device, optionally a data processing device, optionally one or more interfaces, optionally A device incorporating one or more of system-on-chip, optionally one or more display devices, or optionally another electronic device, is a vehicle, automobile, truck, train, bicycle, aircraft, ship, It may be part of a motorcycle. In automotive applications, the incorporation of this device into an automotive design may require the incorporation of an optical sensor, optionally an optical system, or device with minimal external or internal visibility. The detector or a part thereof, such as an evaluation device and / or a data processing device, may be particularly suitable for such integration into an automotive design.

本明細書において、光という用語は一般的に、可視スペクトル域、紫外スペクトル域、および赤外スペクトル域のうちの1つまたは複数における電磁放射を表す。ここで、可視スペクトル域という用語は一般的に、380nm〜780nmのスペクトル域を表す。赤外スペクトル域という用語は一般的に、780nm〜1mmの範囲、好ましくは780nm〜3.0マイクロメートルの範囲の電磁放射を表す。紫外スペクトル域という用語は一般的に、1nm〜380nmの範囲、好ましくは100nm〜380nmの範囲の電磁放射を表す。本発明において使用する光は、可視光すなわち可視スペクトル域の光であるのが好ましい。   As used herein, the term light generally refers to electromagnetic radiation in one or more of the visible spectral region, the ultraviolet spectral region, and the infrared spectral region. Here, the term visible spectral range generally represents a spectral range of 380 nm to 780 nm. The term infrared spectral region generally refers to electromagnetic radiation in the range of 780 nm to 1 mm, preferably in the range of 780 nm to 3.0 micrometers. The term ultraviolet spectral region generally refers to electromagnetic radiation in the range of 1 nm to 380 nm, preferably in the range of 100 nm to 380 nm. The light used in the present invention is preferably visible light, that is, light in the visible spectral range.

光線という用語は一般的に、特定の方向に放出および/または反射される光量を表す。したがって、光線は、その伝搬方向と垂直な方向に所定の拡がりを有する光線の束であってもよい。光線は、好ましくはビームウェスト、レイリー長、もしくはその他任意のビームパラメータ、または空間中のビーム径および/もしくはビーム伝搬の展開を特徴付けるのに適したビームパラメータの組み合わせのうちの1つまたは複数等、1つまたは複数のガウスビームパラメータを特徴とし得る1つまたは複数のガウス光線であってもよいし、このようなガウス光線を含んでいてもよい。   The term light beam generally refers to the amount of light emitted and / or reflected in a particular direction. Therefore, the light beam may be a bundle of light beams having a predetermined spread in a direction perpendicular to the propagation direction. The rays are preferably beam waist, Rayleigh length, or any other beam parameter, or one or more of a combination of beam parameters suitable for characterizing the beam diameter in space and / or the development of beam propagation, etc. There may be one or more Gaussian rays that may be characterized by one or more Gaussian beam parameters, and may include such Gaussian rays.

上記概説の通り、具体的には複数の光学センサが設けられている場合は、これら光学センサのうちの少なくとも1つが透明な光学センサであるのが好ましい。したがって、光学センサのスタックが設けられている場合は、複数および/もしくはスタックのすべての光学センサまたは複数および/もしくはスタックの1つを除くすべての光学センサが透明であるのが好ましい。一例として、光学センサのスタックが設けられ、該光学センサが検出器の光軸に沿って配置されている場合は、好ましくは物体から最も遠い最後の光学センサを除くすべての光学センサが透明な光学センサであってもよい。最後の光学センサ、すなわち、スタックの、物体に対向しない側の光学センサは、透明な光学センサであってもよいし、不透明な光学センサであってもよい。例示的な実施形態については、以下に示す。   As described above, when a plurality of optical sensors are specifically provided, it is preferable that at least one of these optical sensors is a transparent optical sensor. Thus, where a stack of optical sensors is provided, it is preferred that all and / or all of the optical sensors or all of the optical sensors except one and / or one of the stacks are transparent. As an example, if a stack of optical sensors is provided and is positioned along the optical axis of the detector, preferably all optical sensors except the last optical sensor furthest from the object are transparent optical It may be a sensor. The last optical sensor, that is, the optical sensor on the side of the stack not facing the object, may be a transparent optical sensor or an opaque optical sensor. Exemplary embodiments are shown below.

上記概説の通り、光学センサは、有機太陽電池および/またはsDSC等の有機光検出器を備えているのが好ましい。透明な光学センサを提供するため、この光学センサは、2つの透明電極を有していてもよい。したがって、光学センサの少なくとも1つの第1の電極および/または少なくとも1つの第2の電極は、好ましくは全部または一部が透明であってもよい。透明な電極を提供するため、インジウムドープ酸化スズ(ITO)および/またはフッ素ドープ酸化スズ(FTO)等の透明な導電性酸化物(TCO)を使用するようにしてもよい。この追加または代替として、厚さが50nm未満、好ましくは40nm未満の金属層等、Al、Ag、Au、およびPtから成る群から選択される1つまたは複数の金属の薄層等の金属層を使用するようにしてもよい。この追加または代替として、接続性の補助のため、導電性ポリマー等の導電性有機材料を使用するようにしてもよい。これにより、一例として、上記少なくとも1つの光学センサの電極のうちの1つまたは複数は、1つまたは複数の透明な導電性ポリマーを含んでいてもよい。一例としては、表面導電率が少なくとも0.00001S/cm、少なくとも0.001S/cm、または少なくとも0.01S/cm、好ましくは少なくとも0.1S/cm、より好ましくは少なくとも1S/cm、さらには少なくとも10S/cm、または少なくとも100S/cmの1つまたは複数の導電性ポリマー膜を使用するようにしてもよい。一例として、上記少なくとも1つの導電性ポリマーは、ポリ−3,4−エチレンジオキシチオフェン(PEDOT)、好ましくは少なくとも1つの対イオンを電気的にドープしたPEDOT、より好ましくはポリスチレンスルホン酸ナトリウムをドープしたPEDOT(PEDOT:PSS)、ポリアニリン(PANI)、ポリチオフェン、から成る群から選択されるようになっていてもよい。導電性ポリマーは、好ましくは部分電極間に0.1〜20kΩの電気抵抗、好ましくは0.5〜5.0kΩの電気抵抗、より好ましくは1.0〜3.0kΩの電気抵抗を与えていてもよい。一般的に、本明細書において、導電性材料は、電気比抵抗が10未満、10未満、10未満、または10Ωm未満の材料であってもよい。導電性材料は、電気比抵抗が10−1未満、10−2未満、10−3未満、10−5未満、または10−6Ωm未満であるのが好ましい。導電性材料の電気比抵抗は、5×10−7Ωm未満または1×10−7Ωm未満、特にアルミニウムの電気比抵抗の範囲であるのが最も好ましい。 As outlined above, the optical sensor preferably comprises an organic photodetector such as an organic solar cell and / or sDSC. In order to provide a transparent optical sensor, the optical sensor may have two transparent electrodes. Accordingly, at least one first electrode and / or at least one second electrode of the optical sensor may preferably be wholly or partly transparent. Transparent conductive oxides (TCO) such as indium doped tin oxide (ITO) and / or fluorine doped tin oxide (FTO) may be used to provide a transparent electrode. As an addition or alternative to this, a metal layer such as a thin layer of one or more metals selected from the group consisting of Al, Ag, Au and Pt, such as a metal layer having a thickness of less than 50 nm, preferably less than 40 nm. It may be used. As an addition or alternative, a conductive organic material such as a conductive polymer may be used to assist connectivity. Thus, by way of example, one or more of the electrodes of the at least one optical sensor may include one or more transparent conductive polymers. As an example, the surface conductivity is at least 0.00001 S / cm, at least 0.001 S / cm, or at least 0.01 S / cm, preferably at least 0.1 S / cm, more preferably at least 1 S / cm, even at least One or more conductive polymer films of 10 S / cm, or at least 100 S / cm may be used. As an example, the at least one conductive polymer is doped with poly-3,4-ethylenedioxythiophene (PEDOT), preferably PEDOT electrically doped with at least one counter ion, more preferably sodium polystyrene sulfonate. PEDOT (PEDOT: PSS), polyaniline (PANI), and polythiophene may be selected. The conductive polymer preferably provides an electric resistance of 0.1 to 20 kΩ, preferably 0.5 to 5.0 kΩ, more preferably 1.0 to 3.0 kΩ between the partial electrodes. Also good. Generally, in the present specification, the conductive material, the electrical resistivity is less than 10 4, less than 10 3, less than 10 2, or may be a material of less than 10Omum. The conductive material preferably has an electrical resistivity of less than 10 −1, less than 10 −2, less than 10 −3, less than 10 −5 , or less than 10 −6 Ωm. Most preferably, the electrical resistivity of the conductive material is less than 5 × 10 −7 Ωm or less than 1 × 10 −7 Ωm, particularly in the range of electrical resistivity of aluminum.

一般的に、光学センサは、マトリクス状に配置された複数の画素を有する任意の光学センサを含んでいてもよい。上記概説の通り、例示のみを目的として、光学センサは、少なくとも1つの有機材料、好ましくは有機太陽電池、特に好ましくは色素太陽電池または色素増感太陽電池、特に固体色素太陽電池または固体色素増感太陽電池を含む少なくとも1つの半導体検出器、特に有機半導体検出器を備えていてもよい。光学センサは、DSCもしくはsDSCであるか、またはDSCもしくはsDSCを備えるのが好ましい。したがって、光学センサは、少なくとも1つの第1の電極と、少なくとも1つのn半導体金属酸化物と、少なくとも1つの色素と、少なくとも1つのp半導体有機材料、好ましくは固体p半導体有機材料と、少なくとも1つの第2の電極とを備えるのが好ましい。好適な一実施形態において、光学センサは、少なくとも1つのDSC、より好ましくは少なくとも1つのsDSCを備える。上記概説の通り、上記少なくとも1つの光学センサは、透明な光学センサであるか、または少なくとも1つの透明な光学センサを備えるのが好ましい。したがって、第1の電極および第2の電極の両者は、透明であるのが好ましく、複数の光学センサが設けられている場合は、第1の電極および第2の電極の両者が透明となるように光学センサのうちの少なくとも1つが設計されているのが好ましい。上記概説の通り、光学センサのスタックが設けられている場合は、物体から最も遠い最後の光学センサを除くスタックのすべての光学センサが透明であるのが好ましい。この最後の光学センサは、透明であってもよいし、不透明であってもよい。後者の場合、最後の光学センサは、その物体に対向する電極が透明である一方、その物体に対向しない電極が不透明となるように設計されていてもよい。   In general, the optical sensor may include any optical sensor having a plurality of pixels arranged in a matrix. As outlined above, for illustrative purposes only, the optical sensor comprises at least one organic material, preferably an organic solar cell, particularly preferably a dye solar cell or a dye sensitized solar cell, especially a solid dye solar cell or a solid dye sensitized. There may be provided at least one semiconductor detector comprising a solar cell, in particular an organic semiconductor detector. The optical sensor is preferably a DSC or sDSC or comprises a DSC or sDSC. Accordingly, the optical sensor comprises at least one first electrode, at least one n semiconductor metal oxide, at least one dye, at least one p semiconductor organic material, preferably a solid p semiconductor organic material, and at least one. And two second electrodes. In a preferred embodiment, the optical sensor comprises at least one DSC, more preferably at least one sDSC. As outlined above, the at least one optical sensor is preferably a transparent optical sensor or comprises at least one transparent optical sensor. Therefore, it is preferable that both the first electrode and the second electrode are transparent. When a plurality of optical sensors are provided, both the first electrode and the second electrode are transparent. Preferably, at least one of the optical sensors is designed. As outlined above, when a stack of optical sensors is provided, it is preferred that all optical sensors in the stack are transparent except for the last optical sensor furthest from the object. This last optical sensor may be transparent or opaque. In the latter case, the last optical sensor may be designed such that the electrode facing the object is transparent while the electrode not facing the object is opaque.

上記概説の通り、検出器は、複数の光学センサを有するのが好ましい。複数の光学センサは、検出器の光軸等に沿って、積み重ねられているのがより好ましい。これにより、光学センサは、光学センサスタックを構成していてもよい。光学センサスタックは、好ましくは光学センサのセンサ領域が光軸と垂直になるように配向していてもよい。これにより、一例としては、一連の光学センサのセンサエリアまたはセンサ表面が平行に配向していてもよく、10°以下、好ましくは5°以下の角度公差等、わずかな角度公差が許容されていてもよい。   As outlined above, the detector preferably has a plurality of optical sensors. More preferably, the plurality of optical sensors are stacked along the optical axis of the detector. Thereby, the optical sensor may comprise the optical sensor stack. The optical sensor stack may preferably be oriented so that the sensor area of the optical sensor is perpendicular to the optical axis. Thus, as an example, the sensor area or sensor surface of a series of optical sensors may be oriented in parallel, and slight angular tolerances are allowed, such as angular tolerances of 10 ° or less, preferably 5 ° or less. Also good.

光学センサが積み重ねられている場合、上記少なくとも1つの横方向光学センサは、好ましくは積み重ねられた光学センサの、物体に対向する側に、全部または一部が配置されていてもよい。上記少なくとも1つの任意選択としての横方向光学センサは、センサスタックの一部であっても差し支えない。一般的には、その他任意の構成も実現可能である。光学センサは、物体から検出器へと進む少なくとも1つの光線が、好ましくは連続してすべての光学センサを照射するように配置されているのが好ましい。光学センサのセンサ信号を正規化するため、一連の縦方向センサ信号が1つの同じ光線により生成される場合、これら一連の縦方向センサ信号の差は一般的に、該一連の光学センサの各センサ領域の位置における光線の断面の差のみに起因するという事実を使用するようにしてもよい。このように、一連の縦方向センサ信号の比較によって、光線の全パワーが未知であっても、ビーム断面に関する情報が生成されるようになっていてもよい。   When optical sensors are stacked, the at least one lateral optical sensor may be arranged in whole or in part, preferably on the side of the stacked optical sensors facing the object. The at least one optional lateral optical sensor can be part of a sensor stack. In general, any other configuration can be realized. The optical sensors are preferably arranged such that at least one light beam traveling from the object to the detector preferably illuminates all the optical sensors in succession. In order to normalize the sensor signals of an optical sensor, if a series of longitudinal sensor signals are generated by one and the same light beam, the difference between these series of longitudinal sensor signals is generally different for each sensor of the series of optical sensors. The fact that it is due only to the difference in the cross-section of the rays at the position of the region may be used. In this way, by comparing a series of longitudinal sensor signals, information on the beam cross section may be generated even if the total power of the light beam is unknown.

さらには、上述の光学センサの積み重ねおよびこれら積み重ねた光学センサによる複数の縦方向センサ信号の生成を評価装置で用いることにより、光線のビーム断面とビーコンデバイスの縦方向座標との間の既知の関係の曖昧さを解消するようにしてもよい。これにより、ビーコンデバイスから検出器まで伝搬する光線のビーム特性の全部または一部が既知であったとしても、多くのビームにおいて、焦点に到達する前にビーム断面が狭まり、その後再び拡がることが分かる。これは、たとえばガウス光線の場合にも当てはまる。このため、光線のビーム断面が最も狭くなる焦点の前後において、光線の断面が同じとなる位置が光線の伝搬軸に沿って現れる。これにより、一例として、焦点前後の距離z0においては、光線の断面が同一である。したがって、使用している光学センサが1つだけの場合、光線の全パワーまたは強度が既知の場合は、光線の特定の断面が決定されるようになっていてもよい。この情報を用いることにより、各光学センサの焦点からの距離z0が決定されるようになっていてもよい。ただし、各光学センサが焦点の前後いずれに配置されているかを判定するには、物体および/もしくは検出器の移動の履歴ならびに/または検出器が焦点の前後いずれに配置されているかに関する情報等、付加情報が必要となる場合がある。通常の状況において、この付加情報は、利用できない場合がある。したがって、複数の光学センサを用いることにより付加情報を取得して、上述の曖昧さを解消するようにしてもよい。このため、縦方向センサ信号を評価することによって、第1の光学センサ上の光線のビーム断面が第2の光学センサ上の光線のビーム断面よりも大きいことを評価装置が認識しており、第2の光学センサが第1の光学センサの後ろに配置されている場合、評価装置は、光線が依然として狭まっており、第1の光学センサの位置が光線の焦点の前であると判定するようにしてもよい。これに対して、第1の光学センサ上の光線のビーム断面が第2の光学センサ上の光線のビーム断面よりも小さい場合、評価装置は、光線が拡がっており、第2の光学センサの位置が焦点の後ろであると判定するようにしてもよい。このように、評価装置は一般的に、異なる縦方向センサの縦方向センサ信号の比較によって、光線が拡がっているか狭まっているかを認識するように構成されていてもよい。   Furthermore, a known relationship between the beam cross-section of the light beam and the longitudinal coordinates of the beacon device is used in the evaluation device using the stack of optical sensors described above and the generation of a plurality of longitudinal sensor signals by these stacked optical sensors. The ambiguity may be resolved. This shows that for all beams, the beam cross-section narrows before reaching the focal point and then widens again, even if all or part of the beam characteristics of the light propagating from the beacon device to the detector are known. . This is also the case for Gaussian rays, for example. For this reason, before and after the focal point at which the beam cross section of the light beam becomes the narrowest, a position where the cross section of the light beam is the same appears along the propagation axis of the light beam. Thereby, as an example, the cross section of the light beam is the same at the distance z0 before and after the focal point. Thus, if only one optical sensor is used, a specific cross section of the light beam may be determined if the total power or intensity of the light beam is known. By using this information, the distance z0 from the focal point of each optical sensor may be determined. However, in order to determine whether each optical sensor is arranged before or after the focal point, the history of the movement of the object and / or the detector and / or information on whether the detector is arranged before or after the focal point, etc. Additional information may be required. In normal circumstances, this additional information may not be available. Therefore, additional information may be acquired by using a plurality of optical sensors to eliminate the above ambiguity. Therefore, by evaluating the longitudinal sensor signal, the evaluation apparatus recognizes that the beam cross section of the light beam on the first optical sensor is larger than the beam cross section of the light beam on the second optical sensor, If the second optical sensor is located behind the first optical sensor, the evaluation device determines that the light beam is still narrow and that the position of the first optical sensor is in front of the focal point of the light beam. May be. On the other hand, when the beam cross section of the light beam on the first optical sensor is smaller than the beam cross section of the light beam on the second optical sensor, the evaluation apparatus determines that the light beam has spread and the position of the second optical sensor. May be determined to be behind the focus. Thus, the evaluation device may generally be configured to recognize whether the light beam is expanding or narrowing by comparing the vertical sensor signals of different vertical sensors.

光学センサスタックは、好ましくは少なくとも3つの光学センサ、より好ましくは少なくとも4つの光学センサ、さらに好ましくは少なくとも5つの光学センサ、さらには少なくとも6つの光学センサを備えていてもよい。光学センサの縦方向センサ信号を追跡することによって、光線のビームプロファイルまでもが評価されるようになっていてもよい。   The optical sensor stack may preferably comprise at least three optical sensors, more preferably at least four optical sensors, more preferably at least five optical sensors, and even at least six optical sensors. Even the beam profile of the light beam may be evaluated by tracking the longitudinal sensor signal of the optical sensor.

本明細書においては、以下のように、光線の直径すなわち光線のビームウェストまたはビームウェストの2倍を用いることにより、特定の位置における光線のビーム断面を特性化するようにしてもよい。上記概説の通り、物体および/または各ビーコンデバイスすなわち光線を放出および/または反射しているビーコンデバイスの縦方向位置とビーム断面との間の既知の関係を用いて、上記少なくとも1つの縦方向センサ信号を評価することにより、ビーコンデバイスの縦方向座標を決定するようにしてもよい。一例としては、上記概説の通り、光線が少なくとも略ガウス状に伝搬することを仮定したガウス関係を使用するようにしてもよい。この目的のため、光線は、既知のガウスプロファイル等の既知の伝搬特性を有する光線を生成する照射光源の使用等によって、適当に成形されていてもよい。このため、当業者には既知の通り、たとえば多種レーザの場合のように既知の特性を有する光線を照射光源自体が生成するようにしてもよい。この追加または代替として、照射光源および/または検出器は、当業者が認識するような既知の特性を有する光線を提供するため、1つもしくは複数のレンズならびに/または1つもしくは複数のダイヤフラム等の1つまたは複数のビーム成形要素等、1つまたは複数の伝達装置を有していてもよい。このように、一例としては、既知のビーム成形特性を有する1つまたは複数の伝達装置等、1つまたは複数の伝達装置が設けられていてもよい。この追加または代替として、上記少なくとも1つの任意選択としての伝達装置等の照射光源および/または検出器は、上記少なくとも1つの横方向光学センサおよび/または上記少なくとも1つの光学センサの励起極大の外側の波長を除去する1つまたは複数のフィルタ要素等、1つまたは複数のフィルタ等の1つまたは複数の波長選択要素を有していてもよい。   In this specification, the beam cross section of a light beam at a specific position may be characterized by using the diameter of the light beam, that is, the beam waist of the light beam or twice the beam waist as follows. As outlined above, the at least one longitudinal sensor using a known relationship between the longitudinal position of the object and / or each beacon device, ie the beacon device emitting and / or reflecting the light beam, and the beam cross section By evaluating the signal, the longitudinal coordinates of the beacon device may be determined. As an example, as outlined above, a Gaussian relationship assuming that light rays propagate at least approximately Gaussian may be used. For this purpose, the light beam may be suitably shaped, such as by using an illumination light source that generates a light beam having a known propagation characteristic, such as a known Gaussian profile. For this reason, as known to those skilled in the art, the irradiation light source itself may generate a light beam having a known characteristic, for example, in the case of various lasers. In addition or as an alternative, the illumination source and / or detector may provide one or more lenses and / or one or more diaphragms, etc. to provide a light beam having known properties as will be appreciated by those skilled in the art. There may be one or more transmission devices, such as one or more beam shaping elements. Thus, by way of example, one or more transmission devices may be provided, such as one or more transmission devices with known beam shaping characteristics. In addition or as an alternative, the illumination source and / or detector, such as the at least one optional transmission device, is outside the excitation maximum of the at least one lateral optical sensor and / or the at least one optical sensor. There may be one or more wavelength selection elements such as one or more filters, such as one or more filter elements that remove wavelengths.

したがって、評価装置は一般的に、光線のビーム断面および/または直径を光線の既知のビーム特性と比較することによって、好ましくは光線の伝搬方向の少なくとも1つの伝搬座標に対する光線のビーム径の既知の依存性および/または光線の既知のガウスプロファイルから、物体の縦方向位置に関する少なくとも1つの情報を決定するように構成されていてもよい。   Thus, the evaluation device generally knows the beam diameter of the light beam, preferably with respect to at least one propagation coordinate in the light propagation direction, by comparing the beam cross-section and / or diameter of the light beam with the known beam characteristics of the light beam. It may be configured to determine at least one piece of information about the longitudinal position of the object from the dependence and / or the known Gaussian profile of the rays.

上記概説の通り、検出器の少なくとも1つの光学センサまたは画素化センサは、一例として、少なくとも1つの有機光学センサであってもよいし、少なくとも1つの有機光学センサを含んでいてもよい。一例として、上記少なくとも1つの光学センサは、少なくとも1つの色素増感太陽電池(DSC)、好ましくは少なくとも1つの固体DSCすなわちsDSC等、少なくとも1つの有機太陽電池であってもよいし、このような有機太陽電池を備えていてもよい。具体的に、上記少なくとも1つの光学センサは、センサ信号が光子密度または光子束によって決まる効果を示し得る少なくとも1つの光学センサであってもよいし、このような光学センサを含んでいてもよい。FiPセンサにおいては、照射の総パワーpが同じであるものと仮定すると、センサ信号iは一般的に、光子束Fすなわち単位面積当たりの光子数によって決まる。言い換えると、上記少なくとも1つの光学センサは、FiPセンサすなわちセンサ信号を提供可能であり、たとえば画素等の複数のセンサ領域等、少なくとも1つのセンサ領域を有する光学センサとして規定された少なくとも1つの光学センサを含んでいてもよく、センサ信号は、光線によるセンサ領域の照射の総パワーが同じであるものと仮定すると、照射の形状、特にセンサエリア上の照射のビーム断面によって決まる。この効果を示す光学センサ(sDSC等)の可能な実施形態を含めて、この効果は、国際公開第2012/110924A1号明細書、2012年12月19日に出願された米国仮特許出願第61/739,173号明細書、2013年1月8日に出願された米国仮特許出願第61/749,964号明細書、2013年8月19日に出願された米国仮特許出願第61/867,169号明細書、および2013年12月18日に出願された国際特許出願第PCT/IB2013/061095号明細書に、より詳しく開示されている。これらの従来技術文献は、そのすべてを本明細書中に援用するが、これら文献に開示されているようなFiP効果を示す光学センサの実施形態は、光学センサまたは光学センサのうちの少なくとも1つが画素化されているという事実を除いて、本発明に係る検出器の光学センサとしても使用可能である。したがって、上述の従来技術文献のうちの1つまたは複数において使用されている光学センサは、画素化された様態で、本発明の背景においても使用可能である。画素化は単に、これら光学センサの第1および/または第2の電極の適当なパターン化によって実現されるようになっていてもよい。したがって、上述のFiP効果を示す画素化光学センサの画素はそれぞれ、それ自体がFiPセンサを構成していてもよい。   As outlined above, at least one optical sensor or pixelated sensor of the detector may be, by way of example, at least one organic optical sensor or may include at least one organic optical sensor. As an example, the at least one optical sensor may be at least one organic solar cell, such as at least one dye-sensitized solar cell (DSC), preferably at least one solid-state DSC or sDSC, such as An organic solar cell may be provided. Specifically, the at least one optical sensor may be or may include at least one optical sensor in which the sensor signal may exhibit an effect determined by photon density or photon flux. In a FiP sensor, assuming that the total power p of illumination is the same, the sensor signal i is generally determined by the photon flux F, that is, the number of photons per unit area. In other words, the at least one optical sensor is capable of providing a FiP sensor, i.e. a sensor signal, and is defined as an optical sensor having at least one sensor area, e.g. a plurality of sensor areas such as pixels. The sensor signal depends on the shape of the illumination, in particular the beam cross-section of the illumination on the sensor area, assuming that the total power of illumination of the sensor area by the light beam is the same. This effect, including possible embodiments of optical sensors that exhibit this effect (such as sDSC), is described in US Provisional Patent Application No. 61/90, filed on Dec. 19, 2012, WO 2012 / 110924A1. No. 739,173, U.S. Provisional Patent Application No. 61 / 749,964, filed Jan. 8, 2013, U.S. Provisional Patent Application No. 61/867, filed Aug. 19, 2013, No. 169 and International Patent Application No. PCT / IB2013 / 061095 filed on December 18, 2013, for more details. These prior art documents are all incorporated herein by reference, but embodiments of optical sensors that exhibit the FiP effect as disclosed in these documents are such that at least one of the optical sensors or the optical sensors is Except for the fact that it is pixelated, it can also be used as an optical sensor of the detector according to the present invention. Thus, the optical sensor used in one or more of the above prior art documents can be used in the background of the present invention in a pixelated manner. Pixelation may simply be achieved by suitable patterning of the first and / or second electrodes of these optical sensors. Therefore, each pixel of the pixelated optical sensor that exhibits the above-described FiP effect may itself constitute a FiP sensor.

したがって、本発明に係る検出器は具体的に、画素化FiPカメラすなわち少なくとも1つの光学センサまたは複数の光学センサが設けられている場合は該光学センサのうちの少なくとも1つが画素化FiPセンサとして具現化されたカメラとして、全部または一部が具現化されていてもよい。画素化FiPカメラにおいては、光照射野カメラの構成において上記開示したのと同様の方法で写真が記録されるようになっていてもよい。したがって、検出器は、それぞれが画素化FiPセンサとして具現化された光学センサのスタックを備えていてもよい。また、レンズからの異なる距離で写真が記録されるようになっていてもよい。これらの写真からは、DFFおよび/またはDFD等の手法を用いて奥行きを計算することができる。   Therefore, the detector according to the present invention is specifically implemented as a pixelated FiP camera, ie, when at least one optical sensor or a plurality of optical sensors is provided, at least one of the optical sensors is implemented as a pixelated FiP sensor. All or part of the realized camera may be embodied. In the pixelated FiP camera, the photo may be recorded in the same manner as disclosed above in the configuration of the light irradiation field camera. Thus, the detector may comprise a stack of optical sensors, each embodied as a pixelated FiP sensor. In addition, photographs may be recorded at different distances from the lens. From these photographs, the depth can be calculated using techniques such as DFF and / or DFD.

FiP測定では通常、FiP効果を示す有機太陽電池等、2つ以上のFiPセンサが必要となる。異なる電池上の光子密度は、焦点に近い電池と焦点から外れた電池との間の電流比が少なくとも1/100となるように異なっていてもよい。この比率が1に近い場合は、測定が正確でない可能性がある。   FiP measurement usually requires two or more FiP sensors such as an organic solar cell exhibiting the FiP effect. The photon density on the different batteries may be different so that the current ratio between the near-focus battery and the off-focus battery is at least 1/100. If this ratio is close to 1, the measurement may not be accurate.

上記少なくとも1つの評価装置は具体的に、検出器の光軸に平行な線上に配置された異なる光学センサの画素により生成された信号を比較するように具現化されていてもよい。また、光線の光円錐が焦点領域の単一画素に対応していてもよい。焦点から外れた領域においては、光円錐の微小部分のみが該画素に対応する。このため、画素化FiPセンサのスタックにおいて、焦点から外れたセンサの画素の信号は一般的に、焦点が合っているセンサの画素の信号よりもはるかに小さくなる。結果として、信号比が改善される。物体と検出器との間の距離を計算するため、3つ以上の光学センサを用いて、精度をさらに高くするようにしてもよい。   The at least one evaluation device may be specifically embodied to compare signals generated by pixels of different optical sensors arranged on a line parallel to the optical axis of the detector. The light cone of the light beam may correspond to a single pixel in the focal region. In a region out of focus, only a small portion of the light cone corresponds to the pixel. Thus, in a pixelated FiP sensor stack, the out-of-focus sensor pixel signal is typically much smaller than the in-focus sensor pixel signal. As a result, the signal ratio is improved. In order to calculate the distance between the object and the detector, three or more optical sensors may be used to further increase the accuracy.

したがって、一般的に、上記少なくとも1つの光学センサは、それぞれが少なくとも1つのセンサ領域を有し、少なくとも1つのセンサ信号を提供可能な光学センサの少なくとも1つのスタックを備えていてもよく、センサ信号は、光線によるセンサ領域の照射の総パワーが同じであるものと仮定すると、照射の形状、特にセンサエリア上の照射のビーム断面によって決まり、評価装置は、上記光学センサのうちの第1の光学センサの少なくとも1つの画素により生成された少なくとも1つのセンサ信号と上記光学センサのうちの第2の光学センサの少なくとも1つの画素により生成された少なくとも1つのセンサ信号とを比較することにより、具体的には物体と検出器との間の距離および/または物体のz座標を決定するように構成されていてもよい。評価装置は、画素のセンサ信号を評価するようにさらに構成されていてもよい。したがって、1つまたは複数の評価アルゴリズムを使用するようにしてもよい。この追加または代替として、FiPセンサ信号値またはその比率ならびに物体の対応するz座標および/もしくは物体と検出器との間の対応する距離を含む1つまたは複数のルックアップテーブル等、1つまたは複数のルックアップテーブルの使用等の他の評価手段を使用するようにしてもよい。また、レンズまでの距離および/または光学センサ間の距離を考慮に入れて複数のFiP信号を分析することにより、光線の拡がり等の光線に関する情報および従来のFiP距離に関する情報が得られる。   Thus, in general, the at least one optical sensor may comprise at least one stack of optical sensors each having at least one sensor region and capable of providing at least one sensor signal. Assuming that the total power of irradiation of the sensor area by the light beam is the same, it is determined by the shape of the irradiation, particularly the beam cross-section of the irradiation on the sensor area. By comparing at least one sensor signal generated by at least one pixel of the sensor with at least one sensor signal generated by at least one pixel of the second optical sensor of the optical sensors, Configured to determine the distance between the object and the detector and / or the z coordinate of the object It may be. The evaluation device may be further configured to evaluate the sensor signal of the pixel. Accordingly, one or more evaluation algorithms may be used. In addition or as an alternative, one or more, such as one or more lookup tables, including FiP sensor signal values or ratios thereof and corresponding z-coordinates of the object and / or corresponding distance between the object and the detector Other evaluation means such as using a lookup table may be used. In addition, by analyzing a plurality of FiP signals taking into account the distance to the lens and / or the distance between the optical sensors, information on light rays such as light spread and information on conventional FiP distances can be obtained.

上記概説の通り、本発明はさらに、ユーザと機械との間で少なくとも1つの情報を交換するマンマシンインターフェースに関する。本提案のマンマシンインターフェースは、上述または以下に詳述する実施形態のうちの1つまたは複数の上記検出器を1人または複数のユーザが用いることにより、情報および/またはコマンドを機械に与えることができるという事実を利用するようにしてもよい。このように、好ましくはマンマシンインターフェースを用いて、制御コマンドを入力するようにしてもよい。   As outlined above, the present invention further relates to a man-machine interface for exchanging at least one information between a user and a machine. The proposed man-machine interface provides information and / or commands to a machine by one or more users using one or more of the detectors of one or more of the embodiments detailed above or below. You may make use of the fact that it is possible. Thus, the control command may be input preferably using a man-machine interface.

一般的に、本明細書において、ユーザの少なくとも1つの位置は、全体としてユーザの位置に関する1つもしくは複数の情報ならびに/またはユーザの1つもしくは複数の身体部位を示唆していてもよい。このように、ユーザの位置は、好ましくは検出器の評価装置が提供するユーザの位置に関する1つまたは複数の情報を示唆していてもよい。ユーザ、ユーザの身体部位、またはユーザの複数の身体部位は、少なくとも1つの検出装置が位置を検出可能な1つまたは複数の物体と見なすことができる。ここでは、厳密に1つの検出器が設けられていてもよいし、複数の検出器の組み合わせが設けられていてもよい。一例としては、複数の検出器を設けることにより、ユーザの複数の身体部位の位置の決定および/またはユーザの少なくとも1つの身体部位の位置の決定を行うようにしてもよい。   Generally, herein, at least one location of a user may generally indicate one or more information about the location of the user and / or one or more body parts of the user. Thus, the user's location may suggest one or more information regarding the user's location, preferably provided by the detector evaluation device. The user, the user's body part, or the user's body parts can be considered as one or more objects whose position can be detected by at least one detection device. Here, strictly one detector may be provided, or a combination of a plurality of detectors may be provided. As an example, a plurality of detectors may be provided to determine the position of a plurality of body parts of the user and / or to determine the position of at least one body part of the user.

上記少なくとも1つの光学センサおよび上記少なくとも1つの評価装置を備えた本発明に係る検出器は、1つまたは複数の他の種類のセンサまたは検出器とさらに組み合わせるようにしてもよい。したがって、画素のマトリクスを有する上記少なくとも1つの光学センサ(以下、単に画素化光学センサおよび/または画素化センサとも称する)および上記少なくとも1つの評価装置を備えた検出器は、少なくとも1つの付加的な検出器をさらに備えていてもよい。上記少なくとも1つの付加的な検出器は、周囲環境の温度および/または明るさ等の周囲環境のパラメータ、検出器の位置および/または方位に関するパラメータ、物体の位置、たとえば空間中の物体の絶対位置および/または物体の方位等、検出する物体の状態を規定するパラメータのうちの少なくとも1つ等、少なくとも1つのパラメータを検出するように構成されていてもよい。したがって、一般的には、本発明の原理を他の測定原理と組み合わせることにより、付加的な情報の取得ならびに/または測定結果の確認もしくは測定誤差もしくはノイズの低減を行うようにしてもよい。   The detector according to the invention comprising the at least one optical sensor and the at least one evaluation device may be further combined with one or more other types of sensors or detectors. Thus, the at least one optical sensor having a matrix of pixels (hereinafter also simply referred to as pixelated optical sensor and / or pixelated sensor) and the detector comprising the at least one evaluation device comprise at least one additional A detector may be further provided. The at least one additional detector is a parameter of the ambient environment, such as ambient temperature and / or brightness, a parameter relating to the position and / or orientation of the detector, the position of the object, eg the absolute position of the object in space And / or may be configured to detect at least one parameter, such as at least one of the parameters defining the state of the object to be detected, such as the orientation of the object. Therefore, in general, the principles of the present invention may be combined with other measurement principles to obtain additional information and / or check measurement results or reduce measurement errors or noise.

具体的に、本発明に係る検出器は、少なくとも1つの飛行時間型測定を行って少なくとも1つの物体との間の少なくとも1つの距離を検出するように構成された少なくとも1つの飛行時間型(ToF)検出器をさらに備えていてもよい。本明細書において、飛行時間型測定は一般的に、信号が2つの物体間を伝搬するのに必要な時間または信号が1つの物体から第2の物体まで伝搬して戻ってくるのに必要な時間に基づく測定を表す。この場合、信号は具体的に、音響信号または光信号等の電磁信号のうちの1つまたは複数であってもよい。結果として、飛行時間型検出器は、飛行時間型測定を行うように構成された検出器を表す。飛行時間型測定は、市販の距離測定装置または超音波流量計等の市販の流量計等、さまざまな技術分野において周知である。飛行時間型検出器は、飛行時間型カメラとしての具現化も可能である。このような種類のカメラは、光の既知の速度に基づいて物体間の距離を解析可能な距離画像カメラシステムとして市販されている。   In particular, the detector according to the invention comprises at least one time-of-flight type (ToF) configured to perform at least one time-of-flight measurement and detect at least one distance to at least one object. ) A detector may be further provided. In this specification, time-of-flight measurements are generally required for the time required for a signal to propagate between two objects or for the signal to propagate back from one object to a second object. Represents time-based measurements. In this case, the signal may specifically be one or more of electromagnetic signals such as acoustic signals or optical signals. As a result, a time-of-flight detector represents a detector configured to perform a time-of-flight measurement. Time-of-flight measurements are well known in various technical fields, such as commercially available distance measuring devices or commercially available flow meters such as ultrasonic flow meters. The time-of-flight detector can also be embodied as a time-of-flight camera. This type of camera is commercially available as a range image camera system that can analyze the distance between objects based on the known speed of light.

現在入手可能なToF検出器は一般的に、任意選択としてCMOSセンサ等の1つまたは複数の光センサと組み合わせたパルス信号の使用に基づく。また、光センサにより生成されたセンサ信号が積分されるようになっていてもよい。この積分は、2つの異なる時点で開始するようにしてもよい。距離は、これら2つの積分結果の間の相対的な信号強度から計算されるようになっていてもよい。   Currently available ToF detectors are generally based on the use of pulse signals, optionally in combination with one or more optical sensors such as CMOS sensors. Moreover, the sensor signal produced | generated by the optical sensor may be integrated. This integration may start at two different times. The distance may be calculated from the relative signal strength between these two integration results.

さらに、上記概説の通り、ToFカメラは既知であり、一般的には、本発明の背景においても使用可能である。これらのToFカメラは、画素化光センサを含んでいてもよい。ただし、一般的には各画素で2つの積分を行える必要があるため、画素の構成は一般的に、非常に複雑であり、市販のToFカメラの解像度はかなり低い(通常、200×200画素)。約40cm未満までの距離および数メートルを超える距離は通常、検出が困難または不可能である。さらには、パルスの周期性によって、距離が曖昧になる。1周期内のパルスの相対的なシフトのみを測定するためである。   Furthermore, as outlined above, ToF cameras are known and can generally be used in the context of the present invention. These ToF cameras may include a pixelated light sensor. However, since it is generally necessary to perform two integrations at each pixel, the pixel configuration is generally very complex and the resolution of commercially available ToF cameras is quite low (typically 200 × 200 pixels). . Distances of less than about 40 cm and distances greater than a few meters are usually difficult or impossible to detect. Furthermore, the distance is ambiguous due to the periodicity of the pulses. This is because only the relative shift of the pulse within one period is measured.

独立した装置としてのToF検出器には通常、さまざまな欠点および技術的課題がある。したがって、一般的に、ToF検出器、より具体的にはToFカメラは、光路中の雨等の透明な物体に悩まされる。パルスの反射が早過ぎるか、物体が雨滴の後方に隠れるか、または部分反射において、積分により誤った結果が導かれるためである。さらに、測定の誤差を回避するとともにパルスの明確な区別を可能とするため、ToF測定には微光条件が好ましい。明るい日光等の明るい光では、ToF測定が不可能となる可能性がある。さらに、通常のToFカメラのエネルギー消費はかなり多い。背面反射してカメラでなお検出できるように、パルスを十分に明るくする必要があるためである。ただし、パルスの明るさは、眼または他のセンサに有害となるか、または2つ以上のToF測定が互いに干渉する場合に測定誤差を生じる場合がある。要約すると、現在のToF検出器、具体的には現在のToFカメラには、低解像度、距離測定の曖昧さ、使用範囲の制約、光条件の制約、光路中の透明な物体に対する感度、気象条件に対する感度、および高いエネルギー消費等、いくつかの不都合がある。一般的には、これらの技術的課題によって、自動車の安全用途、日常使用のカメラ、またはマンマシンインターフェース、具体的にはゲーム用途での使用等の日常用途に対する現在のToFカメラの能力が低下する。   ToF detectors as stand-alone devices usually have various drawbacks and technical challenges. Thus, in general, ToF detectors, and more specifically ToF cameras, suffer from transparent objects such as rain in the light path. This is because the reflection of the pulse is too early, the object is hidden behind the raindrop, or the partial reflection leads to incorrect results due to integration. Furthermore, low-light conditions are preferred for ToF measurements in order to avoid measurement errors and allow clear distinction of pulses. In bright light such as bright sunlight, ToF measurement may be impossible. Furthermore, the energy consumption of a normal ToF camera is quite high. This is because the pulse needs to be bright enough so that it can be reflected back and still detected by the camera. However, the brightness of the pulse can be detrimental to the eye or other sensors, or can cause measurement errors if two or more ToF measurements interfere with each other. In summary, current ToF detectors, specifically current ToF cameras, have low resolution, ambiguity in distance measurement, limited use, limited light conditions, sensitivity to transparent objects in the light path, weather conditions There are several disadvantages, such as sensitivity to and high energy consumption. In general, these technical challenges reduce the ability of current ToF cameras for everyday applications, such as automotive safety applications, everyday cameras, or man-machine interfaces, specifically for gaming applications. .

画素のマトリクスおよび照射画素の数を評価する上述の原理を含む上記少なくとも1つの光学センサを有する本発明に係る検出器と組み合わせて、両システムの利点および能力を有益に組み合わせるようにしてもよい。したがって、検出器が明光条件で利点をもたらす一方、ToF検出器は一般的に、微光条件でより良い結果をもたらす。したがって、組み合わせ装置すなわち少なくとも1つのToF検出器をさらに具備した本発明に係る検出器は、両方の単一システムと比較して、光の条件に対する公差が高い。これは、自動車または他の車両等における安全用途に特に重要である。   The advantages and capabilities of both systems may be beneficially combined with a detector according to the present invention having the at least one optical sensor including the above-described principles of evaluating the matrix of pixels and the number of illuminated pixels. Thus, while detectors provide advantages in bright light conditions, ToF detectors generally provide better results in low light conditions. Therefore, a detector according to the invention further comprising a combination device, ie at least one ToF detector, has a higher tolerance for light conditions compared to both single systems. This is particularly important for safety applications such as in cars or other vehicles.

具体的に、検出器は、少なくとも1つのToF測定を用いることにより、本発明に係る検出器を用いて行った少なくとも1つの測定を補正するように設計されていてもよいし、その逆も可能である。さらには、検出器を用いることにより、ToF測定の曖昧さを解消するようにしてもよい。具体的には、ToF測定の分析が曖昧になる可能性がある場合はいつでも、画素化検出器を用いた測定を行うようにしてもよい。この追加または代替として、画素化検出器を用いた測定を連続して行うことにより、ToF測定の曖昧さのために通例は除外される領域までToF検出器の作動範囲を拡張するようにしてもよい。また、この追加または代替として、画素化検出器は、より広い範囲または付加的な範囲に対応することにより、より広い領域の距離測定が可能であってもよい。さらには、画素化検出器、具体的には画素化カメラを用いて、エネルギー消費の低減または眼の保護に重要な1つまたは複数の測定領域を決定するようにしてもよい。したがって、画素化検出器は、1つまたは複数の関心領域を検出するように構成されていてもよい。この追加または代替として、画素化検出器は、該検出器が取得するシーン内の1つまたは複数の物体の粗い奥行きマップを決定するのに使用可能であり、この粗い奥行きマップは、1つまたは複数のToF測定により、重要な領域で精緻化されるようになっていてもよい。さらに、画素化検出器は、ToFカメラ等のToF検出器を所要の距離領域まで調整するのに使用可能である。これにより、ToF測定のパルス長および/または周波数が予め設定されることによって、ToF測定における曖昧さの可能性の除去または低減等が可能となる。したがって、一般的には、画素化検出器を用いることにより、ToFカメラ等のToF検出器の自動焦点を行うようにしてもよい。   Specifically, the detector may be designed to correct at least one measurement made using the detector according to the invention by using at least one ToF measurement, and vice versa. It is. Furthermore, the ambiguity of ToF measurement may be resolved by using a detector. Specifically, whenever a ToF measurement analysis may be ambiguous, a measurement using a pixelated detector may be performed. In addition to or as an alternative, continuous measurement with a pixelated detector may extend the operating range of the ToF detector to a region that is typically excluded due to the ambiguity of the ToF measurement. Good. Also, as an addition or alternative, the pixelated detector may be able to measure distances over a wider area by accommodating a wider or additional range. Furthermore, a pixelated detector, specifically a pixelated camera, may be used to determine one or more measurement areas that are important for reducing energy consumption or protecting eyes. Accordingly, the pixelated detector may be configured to detect one or more regions of interest. In addition or as an alternative, the pixelated detector can be used to determine a coarse depth map of one or more objects in the scene that the detector acquires, wherein the coarse depth map is one or more It may be refined in an important region by a plurality of ToF measurements. Furthermore, the pixelated detector can be used to adjust a ToF detector, such as a ToF camera, to the required distance region. Thereby, by setting the pulse length and / or frequency of ToF measurement in advance, it becomes possible to remove or reduce the possibility of ambiguity in ToF measurement. Therefore, in general, by using a pixelated detector, automatic focusing of a ToF detector such as a ToF camera may be performed.

上記概説の通り、粗い奥行きマップは、画素化カメラ等の画素化検出器により記録されるようになっていてもよい。さらに、検出器が取得するシーン内の1つまたは複数の物体に関する奥行き情報またはz情報を含む粗い奥行きマップは、1つまたは複数のToF測定を用いて精緻化されるようになっていてもよい。ToF測定は具体的に、重要な領域においてのみ行われるようになっていてもよい。この追加または代替として、粗い奥行きマップは、ToF検出器、具体的にはToFカメラの調整に使用可能である。   As outlined above, the coarse depth map may be recorded by a pixelated detector such as a pixelated camera. Furthermore, a coarse depth map containing depth information or z information about one or more objects in the scene acquired by the detector may be refined using one or more ToF measurements. . Specifically, the ToF measurement may be performed only in an important region. In addition or as an alternative, the coarse depth map can be used to adjust a ToF detector, specifically a ToF camera.

さらには、上記少なくとも1つのToF検出器と組み合わせた画素化検出器の使用により、雨または気象条件に対する感度等、検出する物体の性質に対するToF検出器の感度または検出器と検出する物体との間の光路内の障害物もしくは媒体に対するToF検出器の感度に関する上述の問題が解決されるようになっていてもよい。組み合わせ画素化/ToF測定を用いることにより、ToF信号からの重要な情報の抽出または複数の透明もしくは半透明層を備えた複雑な物体の測定を行うようにしてもよい。このようにして、ガラス製の物体、結晶、液体構造、相転移、液体運動等が観測されるようになっていてもよい。さらに、画素化検出器と少なくとも1つのToF検出器との組み合わせは、雨天でも機能し、検出器全体は一般的に、気象条件に対する依存性が少ない。一例としては、画素化検出器が提供する測定結果を用いることにより、ToF測定結果から、雨に起因する誤差を除去するようにしてもよく、これにより具体的には、自動車または他の車両等における安全用途に対してこの組み合わせが有用となる。   Further, by using a pixelated detector in combination with the at least one ToF detector, the sensitivity of the ToF detector to the nature of the object to be detected, such as sensitivity to rain or weather conditions, or between the detector and the object to be detected. The above-mentioned problems relating to the sensitivity of the ToF detector to obstacles or media in the optical path may be solved. By using combined pixelation / ToF measurement, extraction of important information from the ToF signal or measurement of complex objects with multiple transparent or translucent layers may be performed. In this way, glass objects, crystals, liquid structures, phase transitions, liquid motions, etc. may be observed. Furthermore, the combination of a pixelated detector and at least one ToF detector also works in the rain, and the entire detector is generally less dependent on weather conditions. As an example, by using the measurement result provided by the pixelated detector, an error caused by rain may be removed from the ToF measurement result, and specifically, an automobile or other vehicle, etc. This combination is useful for safety applications.

本発明に係る検出器に対する少なくとも1つのToF検出器の実装は、さまざまに実現されるようになっていてもよい。したがって、上記少なくとも1つの画素化検出器および上記少なくとも1つのToF検出器は、同じ光路内に並んで配置されていてもよい。一例としては、少なくとも1つのToF検出器の前方に少なくとも1つの透明な画素化検出器が配置されていてもよい。この追加または代替として、画素化検出器およびToF検出器に別個の光路または分割された光路を使用するようにしてもよい。ここでは、一例として、上掲またはより詳しく以下に挙げるビーム分割要素のうちの1つまたは複数等、1つまたは複数のビーム分割要素により光路が分離されていてもよい。一例としては、波長選択要素によりビーム経路が分離されていてもよい。これにより、たとえばToF検出器が赤外光を利用し、画素化検出器が異なる波長の光を利用するようになっていてもよい。この例において、ToF検出器の赤外光は、ホットミラー等の波長選択性ビーム分割要素を用いることにより分離されていてもよい。この追加または代替として、画素化検出器を使用した測定に用いられる光線およびToF測定に用いられる光線は、1つもしくは複数の半透明ミラー、ビーム分割立方体、偏光ビームスプリッタ、またはこれらの組み合わせ等、1つまたは複数のビーム分割要素により分離されていてもよい。さらに、上記少なくとも1つの画素化検出器および上記少なくとも1つのToF検出器は、異なる光学経路を用いた同じ装置において互いに隣接して配置されていてもよい。また、その他さまざまな構成も実現可能である。   Implementation of the at least one ToF detector for the detector according to the present invention may be implemented in various ways. Therefore, the at least one pixelated detector and the at least one ToF detector may be arranged side by side in the same optical path. As an example, at least one transparent pixelated detector may be arranged in front of at least one ToF detector. In addition or as an alternative, separate or split optical paths may be used for the pixelated detector and the ToF detector. Here, by way of example, the optical path may be separated by one or more beam splitting elements, such as one or more of the beam splitting elements listed above or in more detail below. As an example, the beam path may be separated by a wavelength selection element. Thereby, for example, the ToF detector may use infrared light, and the pixelated detector may use light of different wavelengths. In this example, the infrared light of the ToF detector may be separated by using a wavelength selective beam splitting element such as a hot mirror. In addition or as an alternative, the light used for measurement using the pixelated detector and the light used for ToF measurement may include one or more translucent mirrors, beam splitting cubes, polarizing beam splitters, or combinations thereof, etc. It may be separated by one or more beam splitting elements. Furthermore, the at least one pixelated detector and the at least one ToF detector may be arranged adjacent to each other in the same device using different optical paths. Various other configurations are also possible.

上記少なくとも1つの任意選択としてのToF検出器は、基本的には本発明に係る検出器の実施形態のうちのいずれかと組み合わせ可能である。具体的に、上記少なくとも1つのToF検出器は、単一のToF検出器またはToFカメラであってもよいが、単一の光学センサまたはセンサスタック等の複数の光学センサと組み合わせ可能である。さらに、検出器は、CCDチップおよび/またはCMOSチップ、好ましくは1つもしくは複数のフルカラーCCDチップまたはフルカラーCMOSチップといった1つまたは複数の無機撮像装置等、1つまたは複数の撮像装置を備えていてもよい。この追加または代替として、検出器は、1つまたは複数のサーモグラフィカメラをさらに備えていてもよい。   The at least one optional ToF detector can basically be combined with any of the embodiments of the detector according to the invention. Specifically, the at least one ToF detector may be a single ToF detector or a ToF camera, but can be combined with a plurality of optical sensors such as a single optical sensor or sensor stack. Furthermore, the detector comprises one or more imaging devices, such as one or more inorganic imaging devices such as CCD chips and / or CMOS chips, preferably one or more full-color CCD chips or full-color CMOS chips. Also good. In addition or as an alternative, the detector may further comprise one or more thermographic cameras.

上記概説の通り、マンマシンインターフェースは、ユーザへの直接的または間接的な取り付けおよびユーザによる保持のうちの少なくとも1つが行われるように構成された複数のビーコンデバイスを備えていてもよい。したがって、ビーコンデバイスはそれぞれ、適当な固定装置等の任意適当な手段によってユーザに独立して取り付けられていてもよい。この追加または代替として、ユーザは、少なくとも1つのビーコンデバイスまたはビーコンデバイスのうちの1つもしくは複数の保持ならびに/または手中での携行ならびに/または少なくとも1つのビーコンデバイスおよび/もしくはビーコンデバイスを含む衣服の身体部位への着用による携行を行うようにしてもよい。   As outlined above, the man-machine interface may comprise a plurality of beacon devices configured for at least one of direct or indirect attachment to the user and retention by the user. Thus, each beacon device may be independently attached to the user by any suitable means such as a suitable securing device. In addition or as an alternative, the user can hold at least one beacon device or one or more of the beacon devices and / or carry it in the hand and / or of clothing comprising at least one beacon device and / or beacon device. You may make it carry by wearing to a body part.

ビーコンデバイスは一般的に、少なくとも1つの検出器が検出可能な任意の装置および/または少なくとも1つの検出器による検出を容易化する任意の装置であってもよい。したがって、上記概説またはより詳しく以下に概説する通り、ビーコンデバイスは、少なくとも1つの光線を生成する1つまたは複数の照射光源を有すること等により、検出器が検出する少なくとも1つの光線を生成するように構成された能動ビーコンデバイスであってもよい。この追加または代替として、ビーコンデバイスは、別個の照射光源が生成した光線を反射するように構成された1つまたは複数の反射要素の提供等によって、全部または一部が受動ビーコンデバイスとして設計されていてもよい。上記少なくとも1つのビーコンデバイスは、ユーザへの直接的または間接的な取り付けならびに/またはユーザによる携行もしくは保持が永久的または一時的に行われるようになっていてもよい。また、1つもしくは複数の取り付け手段の使用ならびに/またはユーザの手による少なくとも1つのビーコンデバイスの保持および/もしくはユーザによるビーコンデバイスの着用等のユーザ自身による取り付けを行うようにしてもよい。   A beacon device may generally be any device that can be detected by at least one detector and / or any device that facilitates detection by at least one detector. Thus, as outlined above or in more detail below, the beacon device is adapted to generate at least one beam that the detector detects, such as by having one or more illumination sources that generate at least one beam. The active beacon device may be configured as follows. In addition or as an alternative, the beacon device is designed in whole or in part as a passive beacon device, such as by providing one or more reflective elements configured to reflect light generated by a separate illumination source. May be. The at least one beacon device may be adapted to be directly or indirectly attached to the user and / or carried or held by the user permanently or temporarily. Further, the user may use one or a plurality of attachment means and / or attachment by the user himself such as holding at least one beacon device by the user's hand and / or wearing the beacon device by the user.

この追加または代替として、ビーコンデバイスは、ユーザが保持する物体への取り付けおよび組み込みの少なくとも一方が行われるようになっていてもよく、これは、本発明の意味において、ユーザがビーコンデバイスを保持する選択肢の意味に含まれるものとする。したがって、より詳しく以下に概説する通り、ビーコンデバイスは、マンマシンインターフェースの一部としてユーザが保持または携行可能であり、検出装置がその方位を認識可能な制御要素に取り付けられていてもよいし、組み込まれていてもよい。このため、本発明は一般的に、本発明に係る少なくとも1つの検出装置を備えるとともに、少なくとも1つの物体をさらに備えることができ、ビーコンデバイスが、物体への取り付け、物体による保持、または物体への組み込みのうちの少なくとも1つが行われたものである検出システムにも言及する。一例として、物体は、好ましくはユーザがその方位を認識可能な制御要素を構成していてもよい。したがって、検出システムは、上記概説またはより詳しく以下に概説する通り、マンマシンインターフェースの一部であってもよい。一例として、ユーザは、特定の方法で制御要素を取り扱うことにより、1つまたは複数のコマンドの機械への送信等、1つまたは複数の情報の機械への送信を行うようにしてもよい。   As an addition or alternative, the beacon device may be adapted to be attached and / or incorporated into an object held by the user, which in the sense of the invention means that the user holds the beacon device. It shall be included in the meaning of the option. Thus, as outlined in more detail below, the beacon device may be attached to a control element that can be held or carried by the user as part of a man-machine interface and whose detection device can recognize its orientation, It may be incorporated. For this reason, the present invention generally comprises at least one detection device according to the invention and can further comprise at least one object, wherein the beacon device is attached to the object, held by the object, or to the object. Reference is also made to a detection system in which at least one of the integrations is performed. As an example, the object may preferably constitute a control element that allows the user to recognize its orientation. Thus, the detection system may be part of a man-machine interface, as outlined above or in more detail below. As an example, a user may send one or more information to the machine, such as sending one or more commands to the machine, by handling the control element in a particular way.

あるいは、他の方法で検出システムを使用するようにしてもよい。これにより、一例として、検出システムの物体は、ユーザまたは該ユーザの身体部位と異なっていてもよく、一例として、ユーザから独立して動く物体であってもよい。一例としては、装置ならびに/または製造プロセスおよび/もしくはロボットプロセス等の産業プロセスの制御にこの検出システムを使用するようにしてもよい。これにより、一例として、物体は、検出システムを用いて方位を検出可能な機械および/またはロボットアーム等の機械の一部であってもよい。   Alternatively, the detection system may be used in other ways. Thereby, as an example, the object of the detection system may be different from the user or the body part of the user, and may be an object that moves independently of the user, as an example. As an example, the detection system may be used to control equipment and / or industrial processes such as manufacturing processes and / or robotic processes. Thus, as an example, the object may be part of a machine such as a machine and / or a robot arm capable of detecting orientation using a detection system.

マンマシンインターフェースは、ユーザまたはユーザの少なくとも1つの身体部位の位置に関する少なくとも1つの情報を検出装置が生成するように構成されていてもよい。具体的に、上記少なくとも1つのビーコンデバイスのユーザへの取り付け様態が既知である場合は、この少なくとも1つのビーコンデバイスの位置を評価することによって、ユーザまたはユーザの身体部位の位置および/または方位に関する少なくとも1つの情報が得られるようになっていてもよい。   The man-machine interface may be configured such that the detection device generates at least one piece of information regarding the location of the user or at least one body part of the user. Specifically, if the manner of attachment of the at least one beacon device to the user is known, the position and / or orientation of the user or the user's body part is evaluated by evaluating the position of the at least one beacon device. At least one piece of information may be obtained.

ビーコンデバイスは、ユーザの身体または身体部位に取り付け可能なビーコンデバイスおよびユーザが保持可能なビーコンデバイスの一方であるのが好ましい。上記概説の通り、ビーコンデバイスは、全部または一部が能動ビーコンデバイスとして設計されていてもよい。これにより、ビーコンデバイスは、検出器まで透過する少なくとも1つの光線、好ましくは既知のビーム特性を有する少なくとも1つの光線を生成するように構成された少なくとも1つの照射光源を備えていてもよい。この追加または代替として、ビーコンデバイスは、照射光源が生成した光を反射することにより、検出器まで透過する反射光線を生成するように構成された少なくとも1つの反射器を備えていてもよい。   The beacon device is preferably one of a beacon device that can be attached to the user's body or body part and a beacon device that can be held by the user. As outlined above, the beacon device may be designed in whole or in part as an active beacon device. Thereby, the beacon device may comprise at least one illumination light source configured to generate at least one light beam that is transmitted to the detector, preferably at least one light beam having a known beam characteristic. In addition or as an alternative, the beacon device may comprise at least one reflector configured to reflect the light generated by the illumination source to generate a reflected beam that is transmitted to the detector.

検出システムの一部を構成可能な物体は一般的に、任意の形状を有していてもよい。上記概説の通り、検出システムの一部である物体は、好ましくは手動等によりユーザが取り扱い可能な制御要素であってもよい。一例として、制御要素は、グローブ、ジャケット、帽子、靴、ズボン、およびスーツ、手に持てる杖、バット、クラブ、ラケット、ステッキ、モデルガン等の玩具、から成る群から選択される少なくとも1つの要素であってもよいし、このような要素を含んでいてもよい。これにより、一例として、検出システムは、マンマシンインターフェースおよび/または娯楽装置の一部であってもよい。   Objects that can form part of the detection system may generally have any shape. As outlined above, the object that is part of the detection system may be a control element that can be handled by the user, preferably manually or the like. As an example, the control element is at least one element selected from the group consisting of a glove, a jacket, a hat, shoes, trousers, and a suit, a walking stick, a bat, a club, a racket, a walking stick, a toy such as a model gun, and the like. Or may include such an element. Thus, as an example, the detection system may be part of a man-machine interface and / or entertainment device.

本明細書において、娯楽装置は、以下で1人または複数のプレーヤとも称する1人または複数のユーザの余暇および/または娯楽の目的に適合し得る装置である。一例として、娯楽装置は、ゲーム、好ましくはコンピュータゲームの目的に適合し得る。したがって、娯楽装置は、コンピュータ、コンピュータネットワーク、またはコンピュータシステムに実装されていてもよいし、1つまたは複数のゲームソフトウェアプログラムを動作させるコンピュータ、コンピュータネットワーク、またはコンピュータシステムを備えていてもよい。   As used herein, an entertainment device is a device that may be adapted for the leisure and / or entertainment purposes of one or more users, also referred to below as one or more players. As an example, the entertainment device may be adapted for the purpose of a game, preferably a computer game. Thus, the entertainment device may be implemented on a computer, computer network, or computer system, or may include a computer, computer network, or computer system that operates one or more game software programs.

娯楽装置は、上記開示の実施形態のうちの1つもしくは複数ならびに/または以下に開示の実施形態のうちの1つもしくは複数等、本発明に係る少なくとも1つのマンマシンインターフェースを備える。娯楽装置は、マンマシンインターフェースによって、プレーヤが少なくとも1つの情報を入力できるように設計されている。上記少なくとも1つの情報は、娯楽装置のコントローラおよび/もしくはコンピュータへの送信ならびに/または娯楽装置のコントローラおよび/もしくはコンピュータによる使用がなされるようになっていてもよい。   The entertainment device comprises at least one man machine interface according to the present invention, such as one or more of the embodiments disclosed above and / or one or more of the embodiments disclosed below. The entertainment device is designed to allow a player to input at least one piece of information through a man-machine interface. The at least one information may be transmitted to a controller and / or computer of the entertainment device and / or used by the controller and / or computer of the entertainment device.

上記少なくとも1つの情報には、好ましくはゲームの成り行きに影響を及ぼすように構成された少なくとも1つのコマンドを含んでいてもよい。これにより、一例として、上記少なくとも1つの情報には、プレーヤならびに/またはプレーヤの1つもしくは複数の身体部位の少なくとも1つの方位に関する少なくとも1つの情報を含むことにより、ゲームに必要な特定の位置および/または方位および/または動作をプレーヤがシミュレーション可能となる。一例としては、ダンス、ランニング、ジャンプ、ラケットスイング、バットスイング、クラブスイング、物体による別の物体の指向、たとえばモデルガンによるターゲットの指向等の1つまたは複数の動きのシミュレーションがなされ、娯楽装置のコントローラおよび/またはコンピュータに伝達されるようになっていてもよい。   The at least one information may include at least one command that is preferably configured to influence the outcome of the game. Thus, by way of example, the at least one information includes at least one information regarding at least one orientation of the player and / or one or more body parts of the player, thereby providing a specific position and The player can simulate the orientation and / or movement. As an example, one or more movements such as dancing, running, jumping, racket swing, bat swing, club swing, orientation of another object by an object, for example target orientation by a model gun, are simulated, and the entertainment device It may be communicated to the controller and / or the computer.

娯楽装置の一部または全体、好ましくは娯楽装置のコントローラおよび/またはコンピュータは、この情報に従って娯楽機能を変更するように設計されている。したがって、上記概説の通り、上記少なくとも1つの情報に従って、ゲームの成り行きが影響を受ける場合がある。したがって、娯楽装置は、上記少なくとも1つの検出器の評価装置から分離可能ならびに/または少なくとも1つの評価装置と全部もしくは一部が同一または少なくとも1つの評価装置を含み得る1つまたは複数のコントローラを具備していてもよい。上記少なくとも1つのコントローラは、好ましくは1つまたは複数のコンピュータおよび/またはマイクロコントローラ等、1つまたは複数のデータ処理装置を具備していてもよい。   Part or all of the entertainment device, preferably the controller and / or computer of the entertainment device, is designed to change the entertainment function according to this information. Therefore, as described above, the outcome of the game may be affected according to the at least one piece of information. Accordingly, the entertainment device comprises one or more controllers that are separable from the evaluation device of the at least one detector and / or may include all or part of the evaluation device in whole or in part or at least one evaluation device. You may do it. The at least one controller may comprise one or more data processing devices, preferably one or more computers and / or microcontrollers.

本明細書においてさらに、追跡システムは、少なくとも1つの物体および/または物体の少なくとも1つの部分の過去の一連の位置に関する情報を収集するように構成された装置である。また、追跡システムは、少なくとも1つの物体または物体の少なくとも1つの部分の少なくとも1つの将来予測位置および/または方位に関する情報を提供するように構成されていてもよい。追跡システムは、電子装置、好ましくは少なくとも1つのデータ処理装置、より好ましくは少なくとも1つのコンピュータまたはマイクロコントローラとして全部または一部を具現化可能な少なくとも1つの追跡制御装置を有していてもよい。また、上記少なくとも1つの追跡制御装置は、上記少なくとも1つの評価装置の全部もしくは一部を含むこと、および/または上記少なくとも1つの評価装置の一部であること、および/または上記少なくとも1つの評価装置の全部または一部と同一であることが可能である。   Further herein, a tracking system is an apparatus configured to collect information regarding a past series of positions of at least one object and / or at least one portion of an object. The tracking system may also be configured to provide information regarding at least one future predicted position and / or orientation of at least one object or at least one portion of the object. The tracking system may comprise at least one tracking controller that may be embodied in whole or in part as an electronic device, preferably at least one data processing device, more preferably at least one computer or microcontroller. Further, the at least one tracking control device includes all or part of the at least one evaluation device, and / or is part of the at least one evaluation device, and / or the at least one evaluation device. It can be the same as all or part of the device.

追跡システムは、上掲の実施形態のうちの1つもしくは複数ならびに/または以下の実施形態のうちの1つもしくは複数に開示の少なくとも1つの検出器等、本発明に係る少なくとも1つの検出器を備える。追跡システムは、少なくとも1つの追跡制御装置をさらに備える。追跡制御装置は、それぞれが少なくとも1つの位置情報および少なくとも1つの時間情報を含むデータ群またはデータ対の記録等によって、特定の時点における物体の一連の位置を追跡するように構成されている。   The tracking system comprises at least one detector according to the invention, such as one or more of the above-described embodiments and / or at least one detector disclosed in one or more of the following embodiments. Prepare. The tracking system further comprises at least one tracking controller. The tracking controller is configured to track a series of positions of an object at a particular point in time, such as by recording a data group or data pair each containing at least one position information and at least one time information.

追跡システムは、本発明に係る少なくとも1つの検出システムをさらに備えていてもよい。したがって、少なくとも1つの検出器、少なくとも1つの評価装置、および任意選択としての少なくとも1つのビーコンデバイスのほか、追跡システムは、上記ビーコンデバイスまたは少なくとも1つのビーコンデバイスを含む少なくとも1つの制御要素等、物体自体または物体の一部をさらに備えていてもよく、この制御要素は、追跡する物体に対して直接的または間接的に取り付けまたは組み込み可能である。   The tracking system may further comprise at least one detection system according to the present invention. Thus, in addition to at least one detector, at least one evaluator, and optionally at least one beacon device, the tracking system may include objects such as the beacon device or at least one control element including at least one beacon device. It may further comprise itself or part of an object, and this control element can be attached or incorporated directly or indirectly to the object to be tracked.

追跡システムは、該追跡システム自体ならびに/または1つもしくは複数の別個の装置の1つまたは複数の動作を開始するように構成されていてもよい。後者の目的のため、追跡システム、好ましくは追跡制御装置は、少なくとも1つの動作を開始する1つもしくは複数の無線インターフェースおよび/もしくは有線インターフェースならびに/または他の種類の制御接続を有していてもよい。上記少なくとも1つの追跡制御装置は、好ましくは物体の少なくとも1つの実際の位置に従って、少なくとも1つの動作を開始するように構成されていてもよい。一例として、この動作は、物体の将来位置の予測、少なくとも1つの装置による物体の指向、少なくとも1つの装置による検出器の指向、物体の照射、検出器の照射、から成る群から選択されるようになっていてもよい。   The tracking system may be configured to initiate one or more operations of the tracking system itself and / or one or more separate devices. For the latter purpose, the tracking system, preferably the tracking controller, may have one or more wireless and / or wired interfaces and / or other types of control connections that initiate at least one operation. Good. The at least one tracking controller may be configured to initiate at least one movement, preferably according to at least one actual position of the object. As an example, this action may be selected from the group consisting of predicting the future position of an object, directing the object by at least one device, directing the detector by at least one device, illuminating the object, illuminating the detector. It may be.

追跡システムの用途の一例として、該追跡システムは、少なくとも1つの第1の物体および/または少なくとも1つの第2の物体が移動する場合であっても、該第1の物体によって該第2の物体を連続的に指向するのに使用可能である。また、ロボット等の産業用途ならびに/または製造ラインもしくは組み立てラインにおける製造中等に物品が移動する際でも該物品に連続的に作業を行う場合において、可能な例が見られる。この追加または代替として、追跡システムは、物体が移動している場合であっても照射光源によって該物体を連続的に指向することにより該物体を連続的に照射する場合等、照射目的で使用するようにしてもよい。また、送信機によって移動物体を指向することにより該移動物体に対して連続的に情報を送信する場合等、通信システムにおいても別の用途が見られる。   As an example of the use of a tracking system, the tracking system may be configured such that the second object is moved by the first object even when at least one first object and / or at least one second object moves. Can be used to continuously orient. In addition, there are possible examples when industrial work such as robots and / or when an article is moved continuously during production on a production line or an assembly line, etc., when the work is continuously performed on the article. In addition or as an alternative, the tracking system is used for illumination purposes, such as when the object is continuously directed by an illumination light source even when the object is moving, such as when the object is continuously illuminated. You may do it. Another application is also found in communication systems, such as directing information to a moving object by directing the moving object with a transmitter.

上記任意選択としての伝達装置は、上記説明の通り、物体から検出器まで伝搬する光を、好ましくは連続して光学センサに供給するように設計可能である。上記説明の通り、この供給は任意選択として、伝達装置の結像特性あるいは非結像特性により実現可能である。特に、伝達装置は、光学センサへの供給前に、電磁放射を収集するようにも設計可能である。また、上記任意選択としての伝達装置の全体または一部は、より詳しく以下に説明する通り、たとえば少なくとも1つのガウスビーム等、規定または正確に既知のビームプロファイル等の規定の光学特性を有する光線、特に既知のビームプロファイルを有する少なくとも1つのレーザビームを供給するように設計された少なくとも1つの任意選択としての照射光源の構成要素とすることができる。   The optional transmission device can be designed to supply light propagating from the object to the detector, preferably continuously, to the optical sensor as described above. As described above, this supply can optionally be realized by the imaging or non-imaging characteristics of the transmission device. In particular, the transmission device can also be designed to collect electromagnetic radiation before supply to the optical sensor. In addition, all or part of the optional transmission device may be a light beam having a defined optical characteristic, such as a defined or precisely known beam profile, such as at least one Gaussian beam, as described in more detail below. In particular, it can be a component of at least one optional illumination source designed to provide at least one laser beam having a known beam profile.

上記任意選択としての照射光源の可能な実施形態については、国際公開第2012/110924A1号明細書を参照可能である。さらに、他の実施形態も実現可能である。物体から出る光は、該物体自体を起点とすることができるが、任意選択として、別の起点を有し、この起点から物体へと伝搬した後、横方向および/または縦方向光学センサへと向かうようにすることも可能である。後者の場合は、たとえば少なくとも1つの照射光源を用いることによって実現可能である。この照射光源は、たとえば環境照射光源および/または人工照射光源とすることもできるし、このような光源を含むこともできる。一例として、検出器自体は、少なくとも1つのレーザおよび/または少なくとも1つの白熱灯および/または少なくとも1つの発光ダイオード、特に有機および/または無機発光ダイオード等の少なくとも1つの半導体照射光源等、少なくとも1つの照射光源を備えることができる。照射光源またはその一部としては、ビームプロファイルおよび他の取り扱い特性が大略規定されていることから、1つまたは複数のレーザの使用が特に好ましい。照射光源自体は、検出器の構成要素とすることもできるし、検出器とは独立に構成することもできる。また、照射光源は、特に検出器、たとえば検出器のハウジングに組み込み可能である。また、この代替または追加として、少なくとも1つの照射光源は、少なくとも1つのビーコンデバイスまたはビーコンデバイスのうちの1つもしくは複数ならびに/または物体への組み込みまたは物体との接続もしくは空間結合が可能である。   Reference is made to WO 2012/110924 A1 for possible embodiments of the optional illumination source. Furthermore, other embodiments are possible. Light exiting from an object can originate from the object itself, but optionally has another origin, propagates from this origin to the object, and then to a lateral and / or longitudinal optical sensor. It is also possible to make it go. The latter case can be realized by using at least one irradiation light source, for example. This irradiation light source can be, for example, an environmental irradiation light source and / or an artificial irradiation light source, and can also include such a light source. As an example, the detector itself comprises at least one laser and / or at least one incandescent lamp and / or at least one light emitting diode, in particular at least one semiconductor illumination source such as an organic and / or inorganic light emitting diode. An illumination light source can be provided. The use of one or more lasers is particularly preferred as the illumination source or part thereof, since the beam profile and other handling characteristics are largely defined. The irradiation light source itself can be a component of the detector or can be configured independently of the detector. The illumination light source can also be incorporated in particular in a detector, for example a housing of the detector. Also as an alternative or addition, the at least one illumination light source is capable of being incorporated into or connected to or spatially coupled to at least one beacon device or one or more of the beacon devices and / or objects.

したがって、ビーコンデバイスから出る光は、代替または追加として、前記光が各ビーコンデバイス自体を起点とする任意選択により、照射光源からの出射および/または照射光源による励起が可能である。一例として、ビーコンデバイスから出る電磁光は、該ビーコンデバイス自体による放出および/または該ビーコンデバイスによる反射および/または該ビーコンデバイスによる散乱の後、検出器に供給可能である。この場合、電磁放射の放出および/もしくは散乱は、電磁放射のスペクトルの影響がなくても、または該影響があっても実現可能である。これにより、一例として、散乱中には、たとえばストークスまたはラマンによる波長シフトも発生する可能性がある。さらには、たとえば主照射光源により、たとえば物体または物体の部分領域の励起による発光、特にリン光および/または蛍光の発生によって、光の放出が励起可能である。原理上は、他の放出プロセスも可能である。反射が起こると、物体は、たとえば少なくとも1つの反射領域、特に少なくとも1つの反射表面を有することができる。前記反射表面は、物体自体の一部とすることができるが、たとえば物体に接続された反射板等、物体に接続または空間結合された反射器とすることも可能である。少なくとも1つの反射器を使用する場合は、たとえば検出器の他の構成要素とは独立に、物体に接続された該検出器の一部と見なすこともできる。   Thus, the light exiting the beacon device can alternatively or additionally be emitted from the illumination source and / or excited by the illumination source, optionally with the light originating from each beacon device itself. As an example, electromagnetic light exiting a beacon device can be provided to a detector after emission by the beacon device itself and / or reflection by the beacon device and / or scattering by the beacon device. In this case, the emission and / or scattering of electromagnetic radiation can be achieved without or with the influence of the spectrum of electromagnetic radiation. Thus, as an example, a wavelength shift due to, for example, Stokes or Raman may occur during scattering. Furthermore, the emission of light can be excited, for example, by the main illumination light source, for example by the emission of light, in particular phosphorescence and / or fluorescence, by excitation of the object or a partial region of the object. In principle, other release processes are possible. When reflection occurs, the object can have, for example, at least one reflective area, in particular at least one reflective surface. The reflective surface can be part of the object itself, but can also be a reflector connected to or spatially coupled to the object, such as a reflector connected to the object. If at least one reflector is used, it can also be considered as part of the detector connected to an object, for example independent of other components of the detector.

ビーコンデバイスおよび/または上記少なくとも1つの任意選択としての照射光源は互いに独立して、一般的に、紫外スペクトル域(好ましくは200nm〜380nmの範囲)、可視スペクトル域(380nm〜780nm)、赤外スペクトル域(好ましくは780nm〜3.0マイクロメートルの範囲)のうちの少なくとも1つの光を放出するようにしてもよい。上記少なくとも1つの照射光源は、可視スペクトル域、好ましくは500nm〜780nmの範囲、最も好ましくは650nm〜750nmまたは690nm〜700nmの光を放出するように構成されているのが最も好ましい。   The beacon device and / or the at least one optional illumination source are generally independent of each other, generally in the ultraviolet spectral range (preferably in the range of 200 nm to 380 nm), visible spectral range (380 nm to 780 nm), infrared spectrum. At least one light in the range (preferably in the range of 780 nm to 3.0 micrometers) may be emitted. The at least one illumination light source is most preferably configured to emit light in the visible spectral range, preferably in the range of 500 nm to 780 nm, most preferably 650 nm to 750 nm or 690 nm to 700 nm.

光学センサへの光の供給は、特に、たとえば円形、長円形、または異なる構成の断面を有する光スポットが光学センサの任意選択としてのセンサエリアに生成されるように実現可能である。一例として、検出器は、物体を検出可能な視程、特に立体角範囲および/または空間的範囲を有することができる。上記任意選択としての伝達装置は、たとえば検出器の視程内に配置された物体の場合に、光学センサのセンサ領域および/またはセンサエリアに光スポットが完全に配置されるように設計されているのが好ましい。一例としては、この条件を保証する対応サイズを有するようにセンサエリアを選定可能である。   The supply of light to the optical sensor can be realized in particular such that a light spot having a cross-section of, for example, a circle, an oval or a different configuration is generated in the optional sensor area of the optical sensor. As an example, the detector can have a visibility, in particular a solid angle range and / or a spatial range, in which an object can be detected. The optional transmission device is designed so that the light spot is completely located in the sensor area and / or sensor area of the optical sensor, for example in the case of an object located within the visibility of the detector Is preferred. As an example, the sensor area can be selected to have a corresponding size that guarantees this condition.

評価装置は特に、物体の位置に関する少なくとも1つの情報を生成するように設計可能な少なくとも1つのデータ処理装置、特に電子データ処理装置を備えることができる。したがって、評価装置は、光学センサの照射画素または各光学センサの数を入力変数として使用するとともに、これらの入力変数を処理することによって、物体の位置に関する少なくとも1つの情報を生成するように設計されていてもよい。この処理は、並列、連続、あるいは組み合わせて実行可能である。評価装置は、少なくとも1つの格納および/または既知関係の計算および/または使用等によって、これらの情報を生成する任意のプロセスを使用するようにしてもよい。この関係は、所定の分析的な関係とすることもできるし、経験的、分析的、または半経験的に決定可能または決定できる可能性もある。特に、この関係は、少なくとも1つの校正曲線、少なくとも1つの校正曲線集合、少なくとも1つの関数、またはこれらの可能性の組み合わせを含むのが好ましい。たとえばデータ記憶装置および/またはテーブルには、たとえば値集合およびその関連する関数値の形態で、1つまたは複数の校正曲線を格納可能である。ただし、この代替または追加として、上記少なくとも1つの校正曲線は、たとえばパラメータ化形態での格納および/または関数方程式としての格納も可能である。   The evaluation device can in particular comprise at least one data processing device, in particular an electronic data processing device, which can be designed to generate at least one information relating to the position of the object. Thus, the evaluation device is designed to generate at least one piece of information about the position of the object by using the illuminated pixels of the optical sensor or the number of each optical sensor as input variables and processing these input variables. It may be. This process can be executed in parallel, continuously, or in combination. The evaluation device may use any process that generates these information, such as by calculation and / or use of at least one storage and / or known relationship. This relationship can be a predetermined analytical relationship, or can be empirically, analytically, or semi-empirically determined or determined. In particular, this relationship preferably includes at least one calibration curve, at least one calibration curve set, at least one function, or a combination of these possibilities. For example, the data store and / or table can store one or more calibration curves, for example in the form of value sets and their associated function values. However, as an alternative or in addition, the at least one calibration curve can also be stored, for example, in parameterized form and / or as a functional equation.

一例として、評価装置は、情報を決定するためのプログラミングに関して設計可能である。評価装置は特に、少なくとも1つのマイクロコンピュータ等の少なくとも1つのコンピュータを備えることができる。さらに、評価装置は、1つまたは複数の揮発性または不揮発性データメモリを備えることができる。データ処理装置、特に少なくとも1つのコンピュータの代替または追加として、評価装置は、電子テーブル、特に少なくとも1つのルックアップテーブルおよび/または少なくとも1つの特定用途向け集積回路(ASIC)等、情報を決定するように設計された1つまたは複数の別の電子構成要素を備えることができる。   As an example, the evaluation device can be designed with respect to programming for determining information. The evaluation device can in particular comprise at least one computer, such as at least one microcomputer. Furthermore, the evaluation device can comprise one or more volatile or non-volatile data memories. As an alternative or addition to a data processing device, in particular at least one computer, the evaluation device may determine information such as an electronic table, in particular at least one look-up table and / or at least one application specific integrated circuit (ASIC). Can be provided with one or more other electronic components designed.

概して、本発明の背景においては、以下の実施形態が好適と見なされる。   In general, the following embodiments are considered suitable in the context of the invention.

実施形態1:少なくとも1つの物体の位置を決定する検出器であって、
少なくとも1つの光学センサであり、物体から該検出器へと進む光線を検出するように構成され、画素の少なくとも1つのマトリクスを有する、光学センサと、
少なくとも1つの評価装置であり、光線により照射された光学センサの画素の強度分布を決定するように構成され、該強度分布を用いることにより、物体の少なくとも1つの縦方向座標を決定するようにさらに構成された、評価装置と、
を備えた、検出器。
Embodiment 1: A detector for determining the position of at least one object comprising:
At least one optical sensor, configured to detect light traveling from an object to the detector, and having at least one matrix of pixels;
At least one evaluation device configured to determine an intensity distribution of pixels of the optical sensor illuminated by the light beam, and further using the intensity distribution to determine at least one longitudinal coordinate of the object A configured evaluation device;
With a detector.

実施形態2:評価装置が、強度分布と縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成された、実施形態1に記載の検出器。 Embodiment 2: The detector according to embodiment 1, wherein the evaluation device is configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the intensity distribution and the longitudinal coordinates.

実施形態3:強度分布が、
光学センサの光軸に垂直な平面における各画素の横方向位置の関数としての強度、
画素座標の関数としての強度、
強度の関数としての特定の強度を有する画素の数#の分布、
のうちの1つまたは複数を含む、実施形態1または2に記載の検出器。
Embodiment 3: The intensity distribution is
The intensity as a function of the lateral position of each pixel in a plane perpendicular to the optical axis of the optical sensor,
Intensity as a function of pixel coordinates,
# Distribution of the number of pixels with a certain intensity as a function of intensity,
Embodiment 3. The detector of embodiment 1 or 2, comprising one or more of the above.

実施形態4:強度分布が、ガウス光線による照射の強度分布を近似したものである、実施形態1〜3のいずれか1つに記載の検出器。 Embodiment 4: The detector according to any one of Embodiments 1 to 3, wherein the intensity distribution approximates the intensity distribution of irradiation with Gaussian rays.

実施形態5:評価装置が、強度分布を近似した少なくとも1つの強度分布関数を決定するように構成された、実施形態1〜4のいずれか1つに記載の検出器。 Embodiment 5: The detector according to any one of Embodiments 1 to 4, wherein the evaluation device is configured to determine at least one intensity distribution function approximating the intensity distribution.

実施形態6:評価装置が、縦方向座標と強度分布関数および/または該強度分布関数から導出される少なくとも1つのパラメータとの間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成された、実施形態5に記載の検出器。 Embodiment 6: The evaluation device determines a longitudinal coordinate of an object by using a predetermined relationship between the longitudinal coordinate and the intensity distribution function and / or at least one parameter derived from the intensity distribution function. The detector according to embodiment 5 configured as described above.

実施形態7:強度分布関数が、光線のビーム形状関数である、実施形態5または6に記載の検出器。 Embodiment 7: The detector according to embodiment 5 or 6, wherein the intensity distribution function is a beam shape function of the light beam.

実施形態8:強度分布関数が、光学センサの画素の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含む、実施形態5〜7のいずれか1つに記載の検出器。 Embodiment 8: Detection according to any one of Embodiments 5-7, wherein the intensity distribution function comprises a two-dimensional or three-dimensional mathematical function approximating intensity information contained in at least some of the pixels of the optical sensor. vessel.

実施形態9:2次元または3次元の数学関数が、画素のマトリクスの少なくとも1つの画素座標の関数を含む、実施形態8に記載の検出器。 Embodiment 9: The detector of embodiment 8, wherein the two-dimensional or three-dimensional mathematical function comprises a function of at least one pixel coordinate of a matrix of pixels.

実施形態10:マトリクスの画素の画素位置が、x、yを画素座標として(x,y)により規定され、2次元または3次元の数学関数が、f(x)、f(y)、f(x,y)から成る群から選択される1つまたは複数の関数を含む、実施形態8または9に記載の検出器。 Embodiment 10: A pixel position of a pixel of a matrix is defined by (x, y) where x and y are pixel coordinates, and a two-dimensional or three-dimensional mathematical function is f (x), f (y), f ( Embodiment 10. The detector of embodiment 8 or 9, comprising one or more functions selected from the group consisting of x, y).

実施形態11:2次元または3次元の数学関数が、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数から成る群から選択される、実施形態8〜10のいずれか1つに記載の検出器。 Embodiment 11: A group in which a two-dimensional or three-dimensional mathematical function is a bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function The detector according to any one of embodiments 8-10, selected from:

実施形態12:複数の平面において強度分布を決定するように構成され、好ましくは平面それぞれについて強度分布を決定するように構成され、平面が、好ましくは検出器の光軸に垂直であり、該複数の平面が、好ましくは光軸に沿って互いにオフセットしている、実施形態1〜11のいずれか1つに記載の検出器。 Embodiment 12: configured to determine the intensity distribution in a plurality of planes, preferably configured to determine the intensity distribution for each plane, the plane preferably being perpendicular to the optical axis of the detector, the plurality 12. The detector according to any one of embodiments 1-11, wherein the planes are preferably offset from one another along the optical axis.

実施形態13:複数の光学センサ、具体的には光学センサのスタックを備えた、実施形態12に記載の検出器。 Embodiment 13: A detector according to embodiment 12, comprising a plurality of optical sensors, specifically a stack of optical sensors.

実施形態14:評価装置が、光軸に沿った縦方向座標の関数として強度分布の変化を評価することにより、物体の縦方向座標を決定するように構成された、実施形態12または13に記載の検出器。 Embodiment 14: The embodiment 12 or 13 wherein the evaluation device is configured to determine a longitudinal coordinate of the object by evaluating a change in intensity distribution as a function of the longitudinal coordinate along the optical axis. Detector.

実施形態15:評価装置が、それぞれ平面のうちの1つにおける強度分布を近似した複数の強度分布関数を決定するように構成され、該複数の強度分布関数から、物体の縦方向座標を導出するようにさらに構成された、実施形態12〜14のいずれか1つに記載の検出器。 Embodiment 15: The evaluation device is configured to determine a plurality of intensity distribution functions each approximating an intensity distribution in one of the planes, and derives longitudinal coordinates of the object from the plurality of intensity distribution functions. 15. The detector according to any one of embodiments 12-14, further configured as described above.

実施形態16:強度分布関数がそれぞれ、各平面における光線のビーム形状関数である、実施形態15に記載の検出器。 Embodiment 16: The detector of embodiment 15, wherein each of the intensity distribution functions is a beam shape function of a ray in each plane.

実施形態17:評価装置が、各強度分布関数から少なくとも1つのビームパラメータを導出するように構成された、実施形態15または16に記載の検出器。 Embodiment 17: The detector of embodiment 15 or 16, wherein the evaluation device is configured to derive at least one beam parameter from each intensity distribution function.

実施形態18:評価装置が、光軸に沿った縦方向座標の関数として上記少なくとも1つのビームパラメータの変化を評価することにより、物体の縦方向座標を決定するように構成された、実施形態17に記載の検出器。 Embodiment 18: Embodiment 17 wherein the evaluation device is configured to determine a longitudinal coordinate of the object by evaluating a change in the at least one beam parameter as a function of the longitudinal coordinate along the optical axis. Detector.

実施形態19:上記少なくとも1つのビームパラメータが、ビーム径、ビームウェスト、ガウスビームパラメータから成る群から選択される、実施形態17または18に記載の検出器。 Embodiment 19: The detector of embodiment 17 or 18, wherein the at least one beam parameter is selected from the group consisting of a beam diameter, a beam waist, and a Gaussian beam parameter.

実施形態20:評価装置が、ビームパラメータと縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成された、実施形態17〜19のいずれか1つに記載の検出器。 Embodiment 20: Any one of Embodiments 17-19, wherein the evaluation device is configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the beam parameters and the longitudinal coordinates. Detector.

実施形態21:光学センサが、画素それぞれの照射強度を示す少なくとも1つの信号を生成するように構成された、実施形態1〜20のいずれか1つに記載の検出器。 Embodiment 21: The detector according to any one of Embodiments 1 to 20, wherein the optical sensor is configured to generate at least one signal indicative of the illumination intensity of each pixel.

実施形態22:評価装置が、画素それぞれについて、信号を少なくとも1つの閾値と比較することにより、該画素が照射された画素であるか否かを判定するように構成された、実施形態13〜21のいずれか1つに記載の検出器。 Embodiment 22: Embodiments 13-21, wherein the evaluation device is configured to determine, for each pixel, whether the pixel is an illuminated pixel by comparing the signal to at least one threshold. The detector according to any one of the above.

実施形態23:評価装置が、画素の信号を比較することによって、該画素のうちの最大照射の少なくとも1つの画素を決定するように構成された、実施形態22に記載の検出器。 Embodiment 23: The detector of embodiment 22, wherein the evaluation device is configured to determine at least one pixel of the maximum illumination of the pixels by comparing the signals of the pixels.

実施形態24:評価装置が、最大照射の少なくとも1つの画素の信号の割合として、閾値を選定するようにさらに構成された、実施形態23に記載の検出器。 Embodiment 24: The detector of embodiment 23, wherein the evaluation device is further configured to select a threshold as a percentage of the signal of at least one pixel of maximum illumination.

実施形態25:評価装置が、最大照射の少なくとも1つの画素の信号に係数1/eを乗算することによって閾値を選定するように構成された、実施形態24に記載の検出器。 Embodiment 25: The detector of embodiment 24, wherein the evaluation device is configured to select a threshold value by multiplying a signal of at least one pixel of maximum illumination by a factor 1 / e 2 .

実施形態26:強度分布の決定が、光線により照射された光学センサの画素の数Nの決定を含み、物体の少なくとも1つの縦方向座標の決定が、光線により照射された画素の数Nの使用を含む、実施形態1〜25のいずれか1つに記載の検出器。 Embodiment 26: The determination of the intensity distribution includes the determination of the number N of pixels of the optical sensor illuminated by the light beam, and the determination of the at least one longitudinal coordinate of the object uses the number N of pixels illuminated by the light beam. Embodiment 26. A detector according to any one of embodiments 1 to 25, comprising:

実施形態27:評価装置が、光線により照射された画素の数Nと縦方向座標との間の所定の関係を用いることにより、物体の縦方向座標を決定するように構成された、実施形態26に記載の検出器。 Embodiment 27: Embodiment 26, wherein the evaluation device is configured to determine the longitudinal coordinates of the object by using a predetermined relationship between the number N of pixels illuminated by the light rays and the longitudinal coordinates. Detector.

実施形態28:上記所定の関係が、光線がガウス光線であるという仮定に基づく、実施形態27に記載の検出器。 Embodiment 28: The detector of embodiment 27, wherein the predetermined relationship is based on the assumption that the light beam is a Gaussian light beam.

実施形態29:上記所定の関係が、

Figure 2016529473
であって、
ここで、zは、縦方向座標であり、
は、光線が空間中を伝搬する際の最小ビーム半径であり、
は、光線のレイリー長であって、z=π・w /λであるとともに、λは光線の波長である、実施形態27または28に記載の検出器。 Embodiment 29: The predetermined relationship is
Figure 2016529473
Because
Where z is the vertical coordinate,
w 0 is the minimum beam radius at which a ray propagates through space,
29. A detector according to embodiment 27 or 28, wherein z 0 is the Rayleigh length of the ray, z 0 = π · w 0 2 / λ, and λ is the wavelength of the ray.

実施形態30:画素のマトリクスが、2次元マトリクスである、実施形態1〜29のいずれか1つに記載の検出器。 Embodiment 30: The detector according to any one of Embodiments 1 to 29, wherein the matrix of pixels is a two-dimensional matrix.

実施形態31:画素のマトリクスが、矩形マトリクスである、実施形態1〜30のいずれか1つに記載の検出器。 Embodiment 31: The detector according to any one of Embodiments 1 to 30, wherein the matrix of pixels is a rectangular matrix.

実施形態32:複数の光学センサを備えた、実施形態1〜31のいずれか1つに記載の検出器。 Embodiment 32: The detector according to any one of Embodiments 1 to 31, comprising a plurality of optical sensors.

実施形態33:光学センサが、検出器の光軸に沿って積み重ねられた、実施形態32に記載の検出器。 Embodiment 33: A detector according to embodiment 32, wherein the optical sensors are stacked along the optical axis of the detector.

実施形態34:n個の光学センサを備え、nが、好ましくは正の整数であり、評価装置が、光学センサそれぞれについて、光線により照射された画素の数Nを決定するように構成されており、i∈{1,n}が、各光学センサを示す、実施形態32または33に記載の検出器。 Embodiment 34: comprising n optical sensors, where n is preferably a positive integer, and the evaluation device is configured to determine the number N i of pixels illuminated by the light beam for each optical sensor 34. The detector of embodiment 32 or 33, wherein iε {1, n} indicates each optical sensor.

実施形態35:評価装置が、各光学センサについて、光線により照射された画素の数Nを少なくとも1つの隣接する光学センサと比較することにより、物体の縦方向座標の曖昧さを解消するように構成された、実施形態32〜34のいずれか1つに記載の検出器。 Embodiment 35: The evaluation apparatus resolves the ambiguity of the longitudinal coordinate of an object by comparing the number N i of pixels irradiated by light rays with at least one adjacent optical sensor for each optical sensor. 35. A detector according to any one of embodiments 32-34, configured.

実施形態36:評価装置が、光線のパワーに関して、光学センサのセンサ信号を正規化するように構成された、実施形態32〜35のいずれか1つに記載の検出器。 Embodiment 36: The detector of any one of Embodiments 32-35, wherein the evaluation device is configured to normalize the sensor signal of the optical sensor with respect to the power of the light beam.

実施形態37:光学センサのうちの少なくとも1つが、透明である、実施形態32〜36のいずれか1つに記載の検出器。 Embodiment 37: A detector according to any one of embodiments 32-36, wherein at least one of the optical sensors is transparent.

実施形態38:光学センサのうちの少なくとも2つが、異なるスペクトル感度を有し、評価装置が、スペクトル感度が異なる光学センサのセンサ信号を比較することによって、光線の色を決定するように構成された、実施形態32〜37のいずれか1つに記載の検出器。 Embodiment 38: At least two of the optical sensors have different spectral sensitivities, and the evaluation device is configured to determine the color of the light beam by comparing sensor signals of optical sensors having different spectral sensitivities. The detector according to any one of Embodiments 32-37.

実施形態39:評価装置が、画素のマトリクス上での光線の位置を決定することにより、物体の少なくとも1つの横方向座標を決定するようにさらに構成された、実施形態1〜38のいずれか1つに記載の検出器。 Embodiment 39: Any one of Embodiments 1-38, wherein the evaluation device is further configured to determine at least one lateral coordinate of the object by determining a position of the ray on the matrix of pixels. Detector.

実施形態40:評価装置が、光線によるマトリクスの照射の中心を決定するように構成され、物体の少なくとも1つの横方向座標が、照射の中心の少なくとも1つの座標を評価することによって決定される、実施形態39に記載の検出器。 Embodiment 40: The evaluation device is configured to determine a center of illumination of the matrix with light rays, and at least one lateral coordinate of the object is determined by evaluating at least one coordinate of the center of illumination. 40. A detector according to embodiment 39.

実施形態41:照射の中心の座標が、照射の中心の画素座標である、実施形態40に記載の検出器。 Embodiment 41: The detector of embodiment 40, wherein the coordinates of the center of illumination are pixel coordinates of the center of illumination.

実施形態42:評価装置が、物体の少なくとも1つの3次元位置を与えるように構成された、実施形態39〜41のいずれか1つに記載の検出器。 Embodiment 42: The detector according to any one of embodiments 39 to 41, wherein the evaluation device is configured to provide at least one three-dimensional position of the object.

実施形態43:評価装置が、検出器により取得されたシーンの少なくとも1つの3次元画像を提供するように構成された、実施形態40〜42のいずれか1つに記載の検出器。 Embodiment 43: The detector according to any one of embodiments 40-42, wherein the evaluation device is configured to provide at least one three-dimensional image of the scene acquired by the detector.

実施形態44:光線を光学センサ上に案内するように構成された少なくとも1つの伝達装置をさらに備えた、実施形態1〜43のいずれか1つに記載の検出器。 Embodiment 44: The detector of any one of Embodiments 1 to 43, further comprising at least one transmission device configured to guide the light beam onto the optical sensor.

実施形態45:伝達装置が、結像特性を有する、実施形態44に記載の検出器。 Embodiment 45: The detector according to embodiment 44, wherein the transmission device has imaging properties.

実施形態46:伝達装置が、レンズ、ミラー、プリズム、波長選択要素、ダイヤフラムから成る群から選択される少なくとも1つの要素を備えた、実施形態44または45に記載の検出器。 Embodiment 46: A detector according to embodiment 44 or 45, wherein the transmission device comprises at least one element selected from the group consisting of a lens, a mirror, a prism, a wavelength selection element, a diaphragm.

実施形態47:光学センサが、少なくとも1つの有機光起電装置を備えた、実施形態1〜46のいずれか1つに記載の検出器。 Embodiment 47: A detector according to any one of embodiments 1 to 46, wherein the optical sensor comprises at least one organic photovoltaic device.

実施形態48:光学センサが、少なくとも1つのパターン化電極を有する少なくとも1つの色素増感太陽電池を備えた、実施形態1〜47のいずれか1つに記載の検出器。 Embodiment 48: The detector of any one of embodiments 1-47, wherein the optical sensor comprises at least one dye-sensitized solar cell having at least one patterned electrode.

実施形態49:光学センサが、少なくとも1つの第1の電極、少なくとも1つの第2の電極、および第1の電極と第2の電極との間に埋め込まれた少なくとも1つの感光層を備えた、実施形態1〜48のいずれか1つに記載の検出器。 Embodiment 49: An optical sensor comprises at least one first electrode, at least one second electrode, and at least one photosensitive layer embedded between the first electrode and the second electrode. 49. A detector according to any one of embodiments 1-48.

実施形態50:第1の電極が、複数の第1の電極ストライプを備え、第2の電極が、複数の第2の電極ストライプを備え、第1の電極ストライプが、第2の電極ストライプに対して垂直に配向した、実施形態49に記載の検出器。 Embodiment 50: The first electrode includes a plurality of first electrode stripes, the second electrode includes a plurality of second electrode stripes, and the first electrode stripe is in relation to the second electrode stripe. 50. The detector of embodiment 49, wherein the detector is vertically oriented.

実施形態51:光学センサが、少なくとも1つの第1の電極と、少なくとも1つのn半導体金属酸化物と、少なくとも1つの色素と、少なくとも1つのp半導体有機材料、好ましくは固体p半導体有機材料と、少なくとも1つの第2の電極とを備え、上記少なくとも1つのn半導体金属酸化物、少なくとも1つの色素、および少なくとも1つのp半導体有機材料が、第1の電極と第2の電極との間に埋め込まれた、実施形態1〜50のいずれか1つに記載の検出器。 Embodiment 51: An optical sensor comprises at least one first electrode, at least one n-semiconductor metal oxide, at least one dye, at least one p-semiconductor organic material, preferably a solid p-semiconductor organic material, At least one second electrode, wherein the at least one n-semiconductor metal oxide, at least one dye, and at least one p-semiconductor organic material are embedded between the first electrode and the second electrode. The detector according to any one of Embodiments 1 to 50.

実施形態52:第1の電極および第2の電極の両者が透明である、実施形態51に記載の検出器。 Embodiment 52: The detector of embodiment 51, wherein both the first electrode and the second electrode are transparent.

実施形態53:第1の電極および第2の電極の少なくとも一方が、パターン化電極である、実施形態51または52に記載の検出器。 Embodiment 53: The detector of embodiment 51 or 52, wherein at least one of the first electrode and the second electrode is a patterned electrode.

実施形態54:第1の電極が、複数の第1の電極ストライプを備え、第2の電極が、複数の第2の電極ストライプを備え、第1の電極ストライプが、第2の電極ストライプに対して垂直に配向した、実施形態51〜53のいずれか1つに記載の検出器。 Embodiment 54: The first electrode includes a plurality of first electrode stripes, the second electrode includes a plurality of second electrode stripes, and the first electrode stripe is in relation to the second electrode stripe. Embodiment 54. The detector according to any one of embodiments 51-53, oriented vertically.

実施形態55:第1の電極および第2の電極の少なくとも一方が、導電性ポリマーを含む、実施形態51〜54のいずれか1つに記載の検出器。 Embodiment 55: A detector according to any one of embodiments 51 to 54, wherein at least one of the first electrode and the second electrode comprises a conductive polymer.

実施形態56:光学センサの少なくとも1つのスタックを備え、該検出器の視野内のシーンの3次元画像を取得するように構成された、実施形態1〜55のいずれか1つに記載の検出器。 Embodiment 56: A detector according to any one of embodiments 1 to 55, comprising at least one stack of optical sensors and configured to acquire a three-dimensional image of a scene in the field of view of the detector. .

実施形態57:スタックの光学センサが、異なるスペクトル特性を有する、実施形態56に記載の検出器。 Embodiment 57: The detector of embodiment 56, wherein the optical sensors of the stack have different spectral characteristics.

実施形態58:スタックが、第1のスペクトル感度を有する少なくとも1つの第1の光学センサと、第2のスペクトル感度を有する少なくとも1つの第2の光学センサとを備え、第1のスペクトル感度と第2のスペクトル感度とが異なる、実施形態57に記載の検出器。 Embodiment 58: The stack comprises at least one first optical sensor having a first spectral sensitivity and at least one second optical sensor having a second spectral sensitivity, wherein the first spectral sensitivity and the first 58. The detector of embodiment 57, wherein the spectral sensitivity of 2 is different.

実施形態態59:スタックが、スペクトル特性が交互に異なる光学センサを備えた、実施形態57または58に記載の検出器。 Embodiment 59: A detector according to embodiment 57 or 58, wherein the stack comprises optical sensors with alternating spectral characteristics.

実施形態60:スペクトル特性が異なる光学センサのセンサ信号を評価することにより、多色3次元画像、好ましくはフルカラー3次元画像を取得するように構成された、実施形態57〜59のいずれか1つに記載の検出器。 Embodiment 60: Any one of Embodiments 57-59 configured to obtain a multi-color three-dimensional image, preferably a full-color three-dimensional image, by evaluating sensor signals of optical sensors having different spectral characteristics. Detector.

実施形態61:少なくとも1つの飛行時間型測定を行うことにより、少なくとも1つの物体と該検出器との間の少なくとも1つの距離を検出するように構成された少なくとも1つの飛行時間型検出器をさらに備えた、実施形態1〜60のいずれか1つに記載の検出器。 Embodiment 61: Further comprising at least one time-of-flight detector configured to detect at least one distance between at least one object and the detector by performing at least one time-of-flight measurement 61. The detector according to any one of embodiments 1-60, comprising:

実施形態62:上記少なくとも1つの光学センサが、少なくとも1つのセンサ領域を有し、少なくとも1つのセンサ信号を提供可能な少なくとも1つの光学センサを含み、センサ信号が、光線によるセンサ領域の照射の総パワーが同じであるものと仮定すると、照射の形状、特にセンサエリア上の照射のビーム断面によって決まる、実施形態1〜61のいずれか1つに記載の検出器。 Embodiment 62: The at least one optical sensor includes at least one sensor area and includes at least one optical sensor capable of providing at least one sensor signal, wherein the sensor signal is a total of illumination of the sensor area by the light beam. The detector of any one of embodiments 1-61, assuming the power is the same, depending on the shape of the illumination, particularly the beam cross-section of the illumination on the sensor area.

実施形態63:上記少なくとも1つの光学センサが、それぞれが少なくとも1つのセンサ領域を有し、少なくとも1つのセンサ信号を提供可能な光学センサの少なくとも1つのスタックを備え、センサ信号が、光線によるセンサ領域の照射の総パワーが同じであるものと仮定すると、照射の形状、特にセンサエリア上の照射のビーム断面によって決まり、評価装置が、光学センサのうちの第1の光学センサの少なくとも1つの画素により生成された少なくとも1つのセンサ信号と光学センサのうちの第2の光学センサの少なくとも1つの画素により生成された少なくとも1つのセンサ信号とを比較するように構成された、実施形態1〜62のいずれか1つに記載の検出器。 Embodiment 63: The at least one optical sensor comprises at least one stack of optical sensors each having at least one sensor area and capable of providing at least one sensor signal, wherein the sensor signal is a sensor area by a light beam. Assuming that the total power of illumination is the same, it depends on the shape of the illumination, in particular the beam cross section of the illumination on the sensor area, and the evaluation device is based on at least one pixel of the first optical sensor of the optical sensors. Any of embodiments 1-62, configured to compare the generated at least one sensor signal with at least one sensor signal generated by at least one pixel of the second optical sensor of the optical sensors. The detector according to any one of the above.

実施形態64:少なくとも1つの物体の位置を決定する検出システムであって、実施形態1〜63のいずれか1つに記載の少なくとも1つの検出器を備え、少なくとも1つの光線を検出器へと案内するように構成された少なくとも1つのビーコンデバイスをさらに備え、ビーコンデバイスが、物体への取り付け、物体による保持、および物体への組み込みのうちの少なくとも1つが可能である、検出システム。 Embodiment 64: A detection system for determining the position of at least one object, comprising at least one detector according to any one of embodiments 1 to 63 and guiding at least one light beam to the detector A detection system further comprising at least one beacon device configured to, wherein the beacon device is capable of at least one of attachment to the object, retention by the object, and incorporation into the object.

実施形態65:ビーコンデバイスが、少なくとも1つの照射光源を備えた、実施形態64に記載の検出システム。 Embodiment 65: The detection system of embodiment 64, wherein the beacon device comprises at least one illumination source.

実施形態66:ビーコンデバイスが、照射光源が発する主光線を物体から独立して反射するように構成された少なくとも1つの反射装置を備えた、実施形態64または65に記載の検出システム。 Embodiment 66: The detection system of embodiment 64 or 65, wherein the beacon device comprises at least one reflector configured to reflect chief rays emitted by the illumination source independently of the object.

実施形態67:少なくとも2つのビーコンデバイス、好ましくは少なくとも3つのビーコンデバイスを備えた、実施形態64〜66のいずれか1つに記載の検出システム。 Embodiment 67: The detection system according to any one of embodiments 64-66, comprising at least two beacon devices, preferably at least three beacon devices.

実施形態68:上記少なくとも1つの物体をさらに備えた、実施形態64〜67のいずれか1つに記載の検出システム。 Embodiment 68: The detection system according to any one of Embodiments 64-67, further comprising the at least one object.

実施形態69:物体が、剛性物体である、実施形態68に記載の検出システム。 Embodiment 69: The detection system of embodiment 68, wherein the object is a rigid object.

実施形態70:物体が、好ましくはラケット、クラブ、バット、から成る群から選択される物品であるスポーツ用品、衣類、帽子、靴、から成る群から選択される、実施形態68または69に記載の検出システム。 Embodiment 70: The embodiment 68 or 69, wherein the object is selected from the group consisting of sports equipment, clothing, a hat, shoes, preferably an article selected from the group consisting of a racket, a club, a bat. Detection system.

実施形態71:ユーザと機械との間で少なくとも1つの情報を交換するマンマシンインターフェースであって、実施形態64〜70のいずれか1つに記載の少なくとも1つの検出システムを備え、上記少なくとも1つのビーコンデバイスが、ユーザへの直接的または間接的な取り付けおよびユーザによる保持のうちの少なくとも1つが行われるように構成され、該マンマシンインターフェースが、検出システムによってユーザの少なくとも1つの位置を決定するように設計され、上記位置に少なくとも1つの情報を割り当てるように設計された、マンマシンインターフェース。 Embodiment 71 A man-machine interface for exchanging at least one information between a user and a machine, comprising at least one detection system according to any one of embodiments 64-70, wherein said at least one The beacon device is configured to be at least one of direct or indirect attachment to the user and held by the user so that the man-machine interface determines at least one location of the user by the detection system A man-machine interface designed to assign at least one piece of information to the location.

実施形態72:少なくとも1つの娯楽機能を実行する娯楽装置であって、実施形態71に記載の少なくとも1つのマンマシンインターフェースを備え、該マンマシンインターフェースによって、プレーヤが少なくとも1つの情報を入力できるように設計され、該情報に従って娯楽機能を変更するように設計された、娯楽装置。 Embodiment 72: An entertainment device for performing at least one entertainment function, comprising at least one man-machine interface as described in embodiment 71, wherein the man-machine interface allows a player to input at least one information. An entertainment device designed and designed to change entertainment functions according to the information.

実施形態73:少なくとも1つの可動物体の位置を追跡する追跡システムであって、実施形態64〜70のいずれか1つに記載の少なくとも1つの検出システムを備え、少なくとも1つの追跡制御装置をさらに備え、該追跡制御装置が、特定の時点における物体の一連の位置を追跡するように構成された、追跡システム。 Embodiment 73: A tracking system for tracking the position of at least one movable object, comprising at least one detection system as described in any one of embodiments 64-70, and further comprising at least one tracking controller. A tracking system, wherein the tracking controller is configured to track a series of positions of an object at a particular point in time.

実施形態74:少なくとも1つの物体を撮像するカメラであって、実施形態1〜63のいずれか1つに記載の少なくとも1つの検出器を備えた、カメラ。 Embodiment 74: A camera for imaging at least one object, comprising the at least one detector according to any one of Embodiments 1 to 63.

実施形態75:少なくとも1つの物体の位置を決定する方法であって、
少なくとも1つの検出ステップであって、物体から検出器へと進む少なくとも1つの光線が、検出器の少なくとも1つの光学センサにより検出され、該少なくとも1つの光学センサが、画素の少なくとも1つのマトリクスを有する、ステップと、
少なくとも1つの評価ステップであって、光線により照射された光学センサの画素の強度分布が決定され、該強度分布を用いることにより、物体の少なくとも1つの縦方向座標が決定される、ステップと、
を含む、方法。
Embodiment 75: A method for determining the position of at least one object comprising:
At least one detection step, wherein at least one light beam traveling from the object to the detector is detected by at least one optical sensor of the detector, the at least one optical sensor having at least one matrix of pixels , Steps and
At least one evaluation step, wherein an intensity distribution of the pixels of the optical sensor illuminated by the light beam is determined, and using the intensity distribution, at least one longitudinal coordinate of the object is determined;
Including a method.

実施形態76:物体の縦方向座標が、強度分布と縦方向座標との間の所定の関係を用いて決定される、実施形態75に記載の方法。 Embodiment 76: The method of embodiment 75, wherein the longitudinal coordinates of the object are determined using a predetermined relationship between the intensity distribution and the longitudinal coordinates.

実施形態77:強度分布が、
光学センサの光軸に垂直な平面における各画素の横方向位置の関数としての強度、
画素座標の関数としての強度、
強度の関数としての特定の強度を有する画素の数#の分布、
のうちの1つまたは複数を含む、実施形態75または76に記載の方法。
Embodiment 77: The intensity distribution is
The intensity as a function of the lateral position of each pixel in a plane perpendicular to the optical axis of the optical sensor,
Intensity as a function of pixel coordinates,
# Distribution of the number of pixels with a certain intensity as a function of intensity,
The method of embodiment 75 or 76, comprising one or more of the following.

実施形態78:強度分布が、ガウス光線による照射の強度分布を近似したものである、実施形態75〜77のいずれか1つに記載の方法。 Embodiment 78: The method of any one of embodiments 75 to 77, wherein the intensity distribution approximates the intensity distribution of irradiation with Gaussian rays.

実施形態79:強度分布を近似した少なくとも1つの強度分布関数が決定される、実施形態75〜78のいずれか1つに記載の方法。 Embodiment 79: The method of any one of Embodiments 75 through 78, wherein at least one intensity distribution function approximating the intensity distribution is determined.

実施形態80:物体の縦方向座標が、縦方向座標と強度分布関数および/または該強度分布関数から導出される少なくとも1つのパラメータとの間の所定の関係を用いて決定される、実施形態79に記載の方法。 Embodiment 80: Embodiment 79 wherein the longitudinal coordinates of the object are determined using a predetermined relationship between the longitudinal coordinates and the intensity distribution function and / or at least one parameter derived from the intensity distribution function. The method described in 1.

実施形態81:強度分布関数が、光線のビーム形状関数である、実施形態79または80に記載の方法。 Embodiment 81: A method according to embodiment 79 or 80, wherein the intensity distribution function is a beam shape function of the light beam.

実施形態82:強度分布が、光学センサの画素の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含む、実施形態79〜81のいずれか1つに記載の方法。 Embodiment 82: A method according to any one of embodiments 79 to 81, wherein the intensity distribution comprises a two-dimensional or three-dimensional mathematical function approximating intensity information contained in at least some of the pixels of the optical sensor.

実施形態83:2次元または3次元の数学関数が、画素のマトリクスの少なくとも1つの画素座標の関数を含む、実施形態82に記載の方法。 Embodiment 83: The method of embodiment 82, wherein the two-dimensional or three-dimensional mathematical function comprises a function of at least one pixel coordinate of a matrix of pixels.

実施形態84:マトリクスの画素の画素位置が、x、yを画素座標として(x,y)により規定され、2次元または3次元の数学関数が、f(x)、f(y)、f(x,y)から成る群から選択される1つまたは複数の関数を含む、実施形態82または83に記載の方法。 Embodiment 84: A pixel position of a pixel of a matrix is defined by (x, y) where x and y are pixel coordinates, and a two-dimensional or three-dimensional mathematical function is f (x), f (y), f ( 84. The method according to embodiment 82 or 83, comprising one or more functions selected from the group consisting of x, y).

実施形態85:2次元または3次元の数学関数が、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数、またはこれら関数のうちの1つもしくは複数を含む少なくとも1つの導関数、少なくとも1つの線形結合、もしくは少なくとも1つの積、から成る群から選択される少なくとも1つの数学関数を含む、実施形態82〜84のいずれか1つに記載の方法。 Embodiment 85: A two-dimensional or three-dimensional mathematical function is a bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function, or these 85. Any of the embodiments 82-84, comprising at least one mathematical function selected from the group consisting of at least one derivative comprising one or more of the functions, at least one linear combination, or at least one product. The method according to any one of the above.

実施形態86:複数の平面において強度分布が決定され、好ましくは平面それぞれについて強度分布が決定され、平面が、好ましくは検出器の光軸に垂直であり、該複数の平面が、好ましくは光軸に沿って互いにオフセットしている、実施形態75〜85のいずれか1つに記載の方法。 Embodiment 86: The intensity distribution is determined in a plurality of planes, preferably the intensity distribution is determined for each plane, the plane preferably being perpendicular to the optical axis of the detector, the plurality of planes being preferably the optical axis The method according to any one of embodiments 75-85, wherein the method is offset from each other along.

実施形態87:検出器が、複数の光学センサ、具体的には光学センサのスタックを備えた、実施形態86に記載の方法。 Embodiment 87: A method according to embodiment 86, wherein the detector comprises a plurality of optical sensors, specifically a stack of optical sensors.

実施形態88:光軸に沿った縦方向座標の関数として強度分布の変化が決定されることにより、物体の縦方向座標が決定される、実施形態86または87に記載の方法。 Embodiment 88: The method of embodiment 86 or 87, wherein the longitudinal coordinates of the object are determined by determining the change in intensity distribution as a function of the longitudinal coordinates along the optical axis.

実施形態89:それぞれ平面のうちの1つにおける強度分布を近似した複数の強度分布関数が決定され、該複数の強度分布関数から、物体の縦方向座標がさらに導出される、実施形態86〜88のいずれか1つに記載の方法。 Embodiment 89: Embodiments 86-88, wherein a plurality of intensity distribution functions each approximating an intensity distribution in one of the planes are determined, and further the longitudinal coordinates of the object are derived from the plurality of intensity distribution functions. The method as described in any one of these.

実施形態90:強度分布関数がそれぞれ、各平面における光線のビーム形状関数である、実施形態89に記載の方法。 Embodiment 90: The method of embodiment 89, wherein each of the intensity distribution functions is a beam shape function of rays in each plane.

実施形態91:各強度分布関数から少なくとも1つのビームパラメータが導出される、実施形態89または90に記載の方法。 Embodiment 91: A method according to embodiment 89 or 90, wherein at least one beam parameter is derived from each intensity distribution function.

実施形態92:光軸に沿った縦方向座標の関数として上記少なくとも1つのビームパラメータの変化が決定されることにより、物体の縦方向座標が決定される、実施形態91に記載の方法。 Embodiment 92: The method of embodiment 91, wherein the longitudinal coordinate of the object is determined by determining a change in the at least one beam parameter as a function of the longitudinal coordinate along the optical axis.

実施形態93:上記少なくとも1つのビームパラメータが、ビーム径、ビームウェスト、ガウスビームパラメータから成る群から選択される、実施形態91または92に記載の方法。 Embodiment 93: The method of embodiment 91 or 92, wherein the at least one beam parameter is selected from the group consisting of a beam diameter, a beam waist, and a Gaussian beam parameter.

実施形態94:物体の縦方向座標が、ビームパラメータと縦方向座標との間の所定の関係を用いて決定される、実施形態91〜93のいずれか1つに記載の方法。 Embodiment 94: The method according to any one of Embodiments 91 to 93, wherein the longitudinal coordinates of the object are determined using a predetermined relationship between the beam parameters and the longitudinal coordinates.

実施形態95:光学センサが、画素それぞれの照射強度を示す少なくとも1つの信号を生成する、実施形態75〜94のいずれか1つに記載の方法。 Embodiment 95: A method according to any one of embodiments 75 to 94, wherein the optical sensor generates at least one signal indicative of the illumination intensity of each pixel.

実施形態96:評価ステップにおいて、画素それぞれについて、信号を少なくとも1つの閾値と比較することにより、該画素が照射された画素であるか否かを判定する、実施形態95に記載の方法。 Embodiment 96: The method of embodiment 95, wherein in the evaluating step, for each pixel, it is determined whether the pixel is an illuminated pixel by comparing the signal with at least one threshold.

実施形態97:評価ステップにおいて、画素の信号を比較することにより、該画素のうちの最大照射の少なくとも1つの画素が決定される、実施形態96に記載の方法。 Embodiment 97: The method of embodiment 96, wherein, in the evaluating step, at least one pixel of the maximum illumination of the pixels is determined by comparing the signals of the pixels.

実施形態98:最大照射の少なくとも1つの画素の信号の割合として、閾値が選定される、実施形態97に記載の方法。 Embodiment 98: A method according to embodiment 97, wherein a threshold is selected as a proportion of the signal of at least one pixel of maximum illumination.

実施形態99:最大照射の少なくとも1つの画素の信号に係数1/eを乗算することによって閾値が選定される、実施形態98に記載の方法。 Embodiment 99: threshold by multiplying the coefficient 1 / e 2 in at least one pixel signal of the maximum exposure is selected, method of embodiment 98.

実施形態100:強度分布の決定が、光線により照射された光学センサの画素の数Nの決定を含み、物体の少なくとも1つの縦方向座標の決定が、光線により照射された画素の数Nの使用を含む、実施形態75〜99のいずれか1つに記載の方法。 Embodiment 100: The determination of the intensity distribution includes the determination of the number N of pixels of the optical sensor illuminated by the light beam, and the determination of the at least one longitudinal coordinate of the object uses the number N of pixels illuminated by the light beam. 99. The method of any one of embodiments 75-99, comprising:

実施形態101:物体の縦方向座標が、光線により照射された画素の数Nと縦方向座標との間の所定の関係を用いて決定される、実施形態100に記載の方法。 Embodiment 101: The method of embodiment 100, wherein the longitudinal coordinates of the object are determined using a predetermined relationship between the number N of pixels illuminated by the light rays and the longitudinal coordinates.

実施形態102:上記所定の関係が、光線がガウス光線であるという仮定に基づく、実施形態101に記載の方法。 Embodiment 102: The method of embodiment 101, wherein the predetermined relationship is based on an assumption that the light beam is a Gaussian light beam.

実施形態103:上記所定の関係が、

Figure 2016529473
であって、
ここで、zは、縦方向座標であり、
は、光線が空間中を伝搬する際の最小ビーム半径であり、
は、光線のレイリー長であって、z=π・w /λであるとともに、λは光線の波長である、実施形態101または102に記載の方法。 Embodiment 103: The predetermined relationship is
Figure 2016529473
Because
Where z is the vertical coordinate,
w 0 is the minimum beam radius at which a ray propagates through space,
103. The method of embodiment 101 or 102, wherein z 0 is the Rayleigh length of the light beam, z 0 = π · w 0 2 / λ, and λ is the wavelength of the light beam.

実施形態104:画素のマトリクスが、2次元マトリクスである、実施形態75〜103のいずれか1つに記載の方法。 Embodiment 104: A method according to any one of embodiments 75 to 103, wherein the matrix of pixels is a two-dimensional matrix.

実施形態105:画素のマトリクスが、矩形マトリクスである、実施形態75〜104のいずれか1つに記載の方法。 Embodiment 105: A method according to any one of embodiments 75 to 104, wherein the matrix of pixels is a rectangular matrix.

実施形態106:検出器が、複数の光学センサを備えた、実施形態75〜105のいずれか1つに記載の方法。 Embodiment 106: A method according to any one of embodiments 75 to 105, wherein the detector comprises a plurality of optical sensors.

実施形態107:光学センサが、検出器の光軸に沿って積み重ねられた、実施形態106に記載の方法。 Embodiment 107: A method according to embodiment 106, wherein the optical sensors are stacked along the optical axis of the detector.

実施形態108:検出器が、n個の光学センサを備え、光学センサそれぞれについて、光線により照射された画素の数Nが決定され、i∈{1,n}が、各光学センサを示す、実施形態106または107に記載の方法。 Embodiment 108: The detector comprises n optical sensors, for each optical sensor the number of pixels illuminated by the light beam N i is determined, i∈ {1, n} denotes each optical sensor, 108. The method according to embodiment 106 or 107.

実施形態109:各光学センサについて、光線により照射された画素の数Nを少なくとも1つの隣接する光学センサと比較することにより、物体の縦方向座標の曖昧さを解消する、実施形態106〜108のいずれか1つに記載の方法。 Embodiment 109: for each optical sensor, by comparison with at least one adjacent optical sensors the number N i of pixels illuminated by light, eliminating the ambiguity in the longitudinal coordinates of the object, embodiments 106-108 The method as described in any one of these.

実施形態110:光線のパワーに関して、光学センサのセンサ信号が正規化される、実施形態106〜109のいずれか1つに記載の方法。 Embodiment 110: The method according to any one of embodiments 106-109, wherein the sensor signal of the optical sensor is normalized with respect to the power of the light beam.

実施形態111:実施形態1〜63のいずれか1つに記載の検出器の使用であって、交通技術における位置測定、娯楽用途、セキュリティ用途、安全用途、マンマシンインターフェース用途、追跡用途、写真撮影用途、少なくとも1つの飛行時間型検出器との組み合わせによる使用、から成る群から選択される使用目的での使用。 Embodiment 111: Use of the detector according to any one of embodiments 1 to 63, for location measurement in traffic technology, entertainment application, security application, safety application, man-machine interface application, tracking application, photography Use for a purpose of use selected from the group consisting of: use, in combination with at least one time-of-flight detector.

本発明の任意選択としての別の詳細および特徴については、従属請求項と併せて後述する好ましい例示的な実施形態の説明から明らかである。この背景において、これら具体的な特徴は、単独で実装されるようになっていてもよいし、いくつか組み合わせて実装されるようになっていてもよい。本発明は、これらの例示的な実施形態に限定されない。図中、これらの例示的な実施形態は、模式的に示している。個々の図中の同じ符号は、同一の要素、機能が同一の要素、または機能に関して互いに対応する要素を表す。   Further details and features of the invention are apparent from the description of the preferred exemplary embodiments described below in conjunction with the dependent claims. In this background, these specific features may be implemented singly or in combination. The invention is not limited to these exemplary embodiments. In the figure, these exemplary embodiments are shown schematically. The same reference numerals in the individual drawings denote the same elements, elements having the same function, or elements corresponding to each other with respect to the function.

本発明に係る、検出器、検出システム、マンマシンインターフェース、娯楽装置、および追跡システムの例示的な一実施形態を示した図である。FIG. 2 illustrates an exemplary embodiment of a detector, detection system, man-machine interface, entertainment device, and tracking system according to the present invention. 本発明に係る、検出器の例示的な一実施形態を示した図である。FIG. 2 shows an exemplary embodiment of a detector according to the present invention. 図2Aに係る検出器の光学センサの画素の数Nを決定する例示的な一実施形態を示した図である。FIG. 2B illustrates an exemplary embodiment for determining the number N of pixels of the optical sensor of the detector according to FIG. 2A. ガウスビームの典型的な伝搬特性を示した図である。It is the figure which showed the typical propagation characteristic of a Gaussian beam. ガウスビームの典型的な伝搬特性を示した図である。It is the figure which showed the typical propagation characteristic of a Gaussian beam. 3つの光学センサ装置のスペクトル感度を示した図である。It is the figure which showed the spectral sensitivity of three optical sensor apparatuses. 本発明に係る検出器において使用可能な光学センサを示した図である。It is the figure which showed the optical sensor which can be used in the detector which concerns on this invention. 本発明に係る検出器において使用可能な光学センサを示した図である。It is the figure which showed the optical sensor which can be used in the detector which concerns on this invention. 本発明に係る検出器において使用可能な光学センサを示した図である。It is the figure which showed the optical sensor which can be used in the detector which concerns on this invention. 検出器、カメラ、および物体の位置決定の別の実施形態を示した図である。FIG. 6 illustrates another embodiment of detector, camera, and object positioning. 光照射野カメラとして使用する検出器の一実施形態を示した図である。It is the figure which showed one Embodiment of the detector used as a light irradiation field camera. 上記検出器に対する飛行時間型検出器の実装の例示的な一構成を示した図である。It is the figure which showed one example structure of mounting of the time-of-flight type detector with respect to the said detector. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix. マトリクスの画素の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。FIG. 6 illustrates an exemplary embodiment for determining an intensity distribution function of an intensity distribution of pixels in a matrix.

図1は、複数の光学センサ112を有する検出器110の例示的な一実施形態を極めて模式的に示した図である。検出器110は具体的に、カメラ111として具現化されていてもよいし、カメラ111の一部であってもよい。カメラ111は、撮像、具体的には3D撮像用に構成されていてもよく、静止画像および/またはデジタルビデオクリップ等の画像列を取得するように構成されていてもよい。また、他の実施形態も実現可能である。図1は、検出システム114の一実施形態をさらに示しており、上記少なくとも1つの検出器110のほか、この例示的な実施形態では検出器110を用いて位置を検出する物体118への取り付けおよび/または組み込みがなされた1つまたは複数のビーコンデバイス116を備える。図1は、マンマシンインターフェース120の例示的な一実施形態をさらに示しており、上記少なくとも1つの検出システム114を備えるとともに、該マンマシンインターフェース120を含む娯楽装置122をさらに備える。この図は、物体118の位置を追跡する追跡システム124の一実施形態をさらに示しており、検出システム114を備える。これらの装置およびシステムの構成要素については、より詳しく以下に説明するものとする。   FIG. 1 is a very schematic diagram illustrating an exemplary embodiment of a detector 110 having a plurality of optical sensors 112. Specifically, the detector 110 may be embodied as the camera 111 or may be a part of the camera 111. The camera 111 may be configured for imaging, specifically 3D imaging, and may be configured to acquire an image sequence such as a still image and / or a digital video clip. Other embodiments are also possible. FIG. 1 further illustrates one embodiment of a detection system 114, in addition to the at least one detector 110 described above, and in this exemplary embodiment, attachment to an object 118 that uses the detector 110 to detect position and One or more beacon devices 116 // included are provided. FIG. 1 further illustrates an exemplary embodiment of a man-machine interface 120 that includes the at least one detection system 114 and further includes an entertainment device 122 that includes the man-machine interface 120. This figure further illustrates one embodiment of a tracking system 124 that tracks the position of the object 118 and includes a detection system 114. These apparatus and system components will be described in more detail below.

検出器110は、上記1つまたは複数の光学センサ112のほか、少なくとも1つの評価装置126を備える。評価装置126は、1つもしくは複数のコネクタ128ならびに/または1つもしくは複数のインターフェースによって、光学センサ112に接続されていてもよい。さらに、コネクタ128は、図2Aおよび図2Bに関して以下に説明する通り、センサ信号を生成するための1つもしくは複数のドライバならびに/または1つもしくは複数の測定装置を備えていてもよい。さらに、評価装置126は、上記少なくとも1つの任意選択としてのコネクタ128の使用に代えて、全部または一部が検出器110の光学センサ112および/またはハウジング130に組み込まれていてもよい。この追加または代替として、評価装置126は、全部または一部が別個の装置として設計されていてもよい。   The detector 110 includes at least one evaluation device 126 in addition to the one or more optical sensors 112. The evaluation device 126 may be connected to the optical sensor 112 by one or more connectors 128 and / or one or more interfaces. In addition, the connector 128 may include one or more drivers and / or one or more measurement devices for generating sensor signals, as described below with respect to FIGS. 2A and 2B. Further, the evaluation device 126 may be wholly or partly incorporated into the optical sensor 112 and / or the housing 130 of the detector 110 instead of using the at least one optional connector 128. As an addition or alternative, the evaluation device 126 may be designed in whole or in part as a separate device.

この例示的な実施形態において、位置を検出可能な物体118は、スポーツ用品としての設計および/またはユーザ134が位置を操作可能な制御要素132の構成が可能である。一例として、物体118は、バット、ラケット、クラブ、またはその他任意のスポーツ用品および/もしくは疑似スポーツ用品であってもよいし、このようなスポーツ用品を含んでいてもよい。また、他の種類の物体118も可能である。さらには、ユーザ134自身を、位置を検出する物体118として考えることもできる。   In this exemplary embodiment, the position-detectable object 118 can be designed as a sports equipment and / or a control element 132 that allows the user 134 to manipulate the position. As an example, the object 118 may be a bat, racket, club, or any other sports equipment and / or simulated sports equipment, and may include such sports equipment. Other types of objects 118 are also possible. Further, the user 134 can be considered as the object 118 for detecting the position.

上記概説の通り、検出器110は、複数の光学センサ112を備える。光学センサ112は、検出器110のハウジング130の内部に配置されていてもよい。さらに、好ましくは1つまたは複数のレンズ138を備えた1つまたは複数の光学系等、少なくとも1つの伝達装置136が備わっていてもよい。また、好ましくは検出器110の光軸142に対して同心円状に配置されたハウジング130の開口140によって、検出器110の視野方向144が規定されているのが好ましい。また、光軸142に平行または逆平行な方向が縦方向と規定される一方、光軸142に垂直な方向が横方向と規定された座標系146が規定されていてもよい。座標系146においては、図1に記号で示すように、縦方向がzで、横方向がxおよびyでそれぞれ表される。また、他の種類の座標系146も実現可能である。   As outlined above, the detector 110 includes a plurality of optical sensors 112. The optical sensor 112 may be disposed inside the housing 130 of the detector 110. Furthermore, at least one transmission device 136 may be provided, such as one or more optical systems, preferably with one or more lenses 138. The viewing direction 144 of the detector 110 is preferably defined by the opening 140 of the housing 130 that is preferably arranged concentrically with the optical axis 142 of the detector 110. Further, a coordinate system 146 may be defined in which a direction parallel or antiparallel to the optical axis 142 is defined as a vertical direction, while a direction perpendicular to the optical axis 142 is defined as a horizontal direction. In the coordinate system 146, as indicated by symbols in FIG. 1, the vertical direction is represented by z, and the horizontal direction is represented by x and y. Other types of coordinate systems 146 are also possible.

検出器110は、光学センサ112のうちの1つまたは複数を備えていてもよい。図1に示すように、複数の光学センサ112が備わっているのが好ましく、これらが光軸142に沿って積み重ねられ、センサスタック148を構成しているのがより好ましい。図1の実施形態には、5つの光学センサ112を示しているが、光学センサ112の数が異なる実施形態も実現可能であることに留意するものとする。   The detector 110 may include one or more of the optical sensors 112. As shown in FIG. 1, a plurality of optical sensors 112 are preferably provided, and it is more preferable that these are stacked along the optical axis 142 to form a sensor stack 148. It should be noted that although the embodiment of FIG. 1 shows five optical sensors 112, embodiments with different numbers of optical sensors 112 are possible.

光学センサ112または少なくとも物体118に対向しない光学センサ112を除くその他の光学センサ112は、物体118ならびに/またはビーコンデバイス116のうちの1つもしくは複数から検出器110へと進む少なくとも1つの光線150が光学センサ112を順次通過するように、該光線150に対して透明であるのが好ましい。   Other optical sensors 112, except optical sensor 112 or at least optical sensor 112 that does not face object 118, have at least one light beam 150 traveling from one or more of object 118 and / or beacon device 116 to detector 110. It is preferable that the light beam 150 is transparent so as to sequentially pass through the optical sensor 112.

検出器110は、上記少なくとも1つの物体118の位置を決定するように構成されている。このため、図2Aおよび該図に示す光学センサ112のうちの1つの例示的な実施形態に関して説明する通り、光学センサ112はそれぞれ、画素154のマトリクス152を備える。検出器110、具体的には評価装置126は、光線150により照射された上記少なくとも1つの光学センサ112の画素154の強度分布を決定するように構成されている。一例として、強度分布は、光線150による照射中に画素154が取得する強度値の分布またはそこから導出される数値の分布であってもよい。   The detector 110 is configured to determine the position of the at least one object 118. Thus, each of the optical sensors 112 includes a matrix 152 of pixels 154, as described with respect to FIG. 2A and one exemplary embodiment of the optical sensors 112 shown therein. The detector 110, specifically the evaluation device 126, is configured to determine the intensity distribution of the pixels 154 of the at least one optical sensor 112 irradiated by the light beam 150. As an example, the intensity distribution may be a distribution of intensity values acquired by the pixels 154 during irradiation with the light beam 150 or a numerical value distribution derived therefrom.

この例示的な実施形態において、マトリクス152は矩形マトリクスであり、図2Aの座標系146により記号で示すように、x次元の行およびy次元の列に画素154が配置されている。マトリクス152の平面は、検出器110の光軸142に垂直であってもよく、このため、縦方向座標zに垂直であってもよい。ただし、非平面状の光学センサ112を有する実施形態および/または画素154の非矩形マトリクスを有する実施形態等、他の実施形態も実現可能である。   In this exemplary embodiment, matrix 152 is a rectangular matrix, with pixels 154 arranged in x-dimensional rows and y-dimensional columns, as symbolized by coordinate system 146 of FIG. 2A. The plane of the matrix 152 may be perpendicular to the optical axis 142 of the detector 110 and thus may be perpendicular to the longitudinal coordinate z. However, other embodiments are possible, such as an embodiment having a non-planar optical sensor 112 and / or an embodiment having a non-rectangular matrix of pixels 154.

検出器110は、物体118の位置を決定するよう構成されており、光学センサ112は、物体118、具体的にはビーコンデバイス116のうちの1つまたは複数から検出器110へと進む光線150を検出するよう構成されている。このため、評価装置126は、より詳しく以下に概説する通り、画素154の強度分布を用いて、物体118の少なくとも1つの縦方向座標を決定するように構成されている。   The detector 110 is configured to determine the position of the object 118, and the optical sensor 112 emits a light beam 150 that travels from the object 118, specifically one or more of the beacon devices 116, to the detector 110. Configured to detect. For this reason, the evaluation device 126 is configured to determine at least one longitudinal coordinate of the object 118 using the intensity distribution of the pixel 154, as outlined in more detail below.

光線150は、直接および/またはレンズ138による集束等の伝達装置136による修正の後、光学センサ112または光学センサ112それぞれのセンサ表面158に光スポット156を形成する。画素154はそれぞれ、各画素の照射強度を表すセンサ信号または画素信号として、強度値とも称する個別の信号を生成するように構成されていてもよい。画素154のセンサ信号またはそこから導出される値の実体または全体は、画素の強度分布と見なすことができる。   The light beam 150 forms a light spot 156 on the optical sensor 112 or the sensor surface 158 of each optical sensor 112 after modification by a transmission device 136 such as direct and / or focusing by a lens 138. Each of the pixels 154 may be configured to generate an individual signal, also referred to as an intensity value, as a sensor signal or pixel signal that represents the irradiation intensity of each pixel. The substance or the whole of the sensor signal of the pixel 154 or the value derived therefrom can be regarded as the intensity distribution of the pixel.

これにより、一例として、図2Aには、画素154それぞれのセンサ信号の生成に使用可能な多重化測定方式を示している。このように、マトリクス152の列はそれぞれ、各電流測定装置160に接続されるようになっていてもよい。また、マトリクス152の行それぞれを接触させるスイッチ162が設けられていてもよい。このようにして、マトリクス152の行を順次接触させる多重化測定方式が実現されるようになっていてもよい。このため、第1のステップにおいては、マトリクス152の最上行をスイッチ162によって接触させることにより、マトリクス152の最上行の画素それぞれに測定電流が流れるようにしてもよい。この電流は、アナログ形式での提供ならびに/または1つもしくは複数のアナログ−デジタル変換器の提供等によるデジタル形式への変換が可能である。これにより、4ビットグレースケール値、8ビットグレースケール値、または他の情報形式の提供等によって、マトリクス152の最上画素行の画素それぞれの測定値が生成されるようになっていてもよい。画素154のセンサ信号を表す各情報値は、1つまたは複数の揮発性および/または不揮発性データメモリ164を備え得る評価装置126に提供されるようになっていてもよい。その後、スイッチ162を切り替えてマトリクス152の第2の行に接触させることにより、第2の行の各ビットのセンサ信号が生成された後、後続の行のセンサ値が生成される。マトリクス152全体の1回の測定を終えたら、マトリクス152の第1の行への再度の接触等、ルーチンを新たに始めるようにしてもよい。こうして、この多重化方式または他の多重化方式を用いることにより、画素154それぞれのセンサ信号が生成されるようになっていてもよい。この多重化は、高い繰り返し率で行われるようになっていてもよいため、1回の多重化サイクルにおいては、光線150の強度も光スポット156の位置も大きくは変化しないと考えられる。ただし、具体的には高速で移動する物体118の場合は、マトリクス152の各画素154のセンサ値を同時に生成する測定方式等、センサ値を生成する他の方式を使用するようにしてもよい。   Thus, as an example, FIG. 2A shows a multiplexed measurement scheme that can be used to generate sensor signals for each pixel 154. Thus, each column of the matrix 152 may be connected to each current measuring device 160. In addition, a switch 162 that contacts each row of the matrix 152 may be provided. In this way, a multiplexed measurement method in which the rows of the matrix 152 are sequentially contacted may be realized. Therefore, in the first step, the uppermost row of the matrix 152 may be contacted by the switch 162 so that the measurement current flows through each of the uppermost row pixels of the matrix 152. This current can be converted to digital form, such as by providing it in analog form and / or providing one or more analog-to-digital converters. Thereby, a measurement value of each pixel in the uppermost pixel row of the matrix 152 may be generated by providing a 4-bit grayscale value, an 8-bit grayscale value, or other information format. Each information value representing the sensor signal of the pixel 154 may be provided to an evaluation device 126 that may comprise one or more volatile and / or non-volatile data memories 164. After that, by switching the switch 162 to contact the second row of the matrix 152, the sensor signal of each bit of the second row is generated, and then the sensor value of the subsequent row is generated. When the entire measurement of the entire matrix 152 is completed, the routine may be newly started, such as re-contact with the first row of the matrix 152. In this way, the sensor signal of each pixel 154 may be generated by using this multiplexing method or another multiplexing method. Since this multiplexing may be performed at a high repetition rate, it is considered that the intensity of the light beam 150 and the position of the light spot 156 do not change significantly in one multiplexing cycle. However, specifically, in the case of the object 118 moving at high speed, other methods for generating sensor values, such as a measurement method for simultaneously generating sensor values for the pixels 154 of the matrix 152, may be used.

上記概説の通り、マトリクス152は、少なくとも10個の画素行および少なくとも10個の画素列を含んでいるのが好ましい。これにより、一例としては、少なくとも20個の画素行および少なくとも20個の画素列、好ましくは少なくとも50個の画素行および50個の画素列、より好ましくは少なくとも100個の画素行および100個の画素列が存在していてもよい。したがって、具体的には、VGAおよび/またはSVGA等の標準形式を使用するようにしてもよい。   As outlined above, the matrix 152 preferably includes at least 10 pixel rows and at least 10 pixel columns. Thereby, as an example, at least 20 pixel rows and at least 20 pixel columns, preferably at least 50 pixel rows and 50 pixel columns, more preferably at least 100 pixel rows and 100 pixels. There may be columns. Therefore, specifically, a standard format such as VGA and / or SVGA may be used.

物体118の位置は、画素154により提供されるセンサ信号を用いて決定されるようになっていてもよい。このため、まず、図2Aに概説する通り、画素154のセンサ信号を比較することによって、光線150による照射の強度が最も高い1つまたは複数の画素が決定されるようになっていてもよい。また、光スポット156の中心等、この照射の中心を用いることにより、光スポット156の横方向座標を表す座標xmaxおよびymaxが決定されるようになっていてもよい。周知のレンズ方程式等の既知の結像方程式を用いることにより、座標xmax、ymaxから、座標系146において光線150を放出している物体118および/または各ビーコンデバイス116の横方向座標が決定されるようになっていてもよい。このように、光学センサ112のセンサ表面158上の光スポット156の横方向位置を決定することによって、物体118および/または物体118の一部の横方向位置が決定されるようになっていてもよい。 The position of the object 118 may be determined using a sensor signal provided by the pixel 154. Therefore, first, as outlined in FIG. 2A, one or more pixels with the highest intensity of illumination by the light beam 150 may be determined by comparing the sensor signals of the pixels 154. Further, the coordinates x max and y max representing the lateral coordinates of the light spot 156 may be determined by using the center of irradiation such as the center of the light spot 156. By using a known imaging equation, such as a well-known lens equation, the lateral coordinates of the object 118 and / or each beacon device 116 emitting the light ray 150 in the coordinate system 146 are determined from the coordinates x max , y max. You may come to be. In this way, by determining the lateral position of the light spot 156 on the sensor surface 158 of the optical sensor 112, the lateral position of the object 118 and / or a portion of the object 118 may be determined. Good.

さらに、上記概説およびより詳しく以下に説明する通り、検出器110は、強度分布を用いることにより、物体118および/または少なくとも1つのビーコンデバイス116の縦方向座標を決定するように構成されていてもよい。このため、以下に例としてより詳しく説明するさまざまなアルゴリズムを使用するようにしてもよい。したがって、一般的に、評価装置126は、強度分布と縦方向座標との間の所定の関係を用いることにより、物体118の縦方向座標を決定するように構成されていてもよい。具体的に、評価装置126は、強度分布を近似した少なくとも1つの強度分布関数を決定するように構成されていてもよい。したがって、評価装置126は、縦方向座標と強度分布関数および/または該強度分布関数から導出される少なくとも1つのパラメータとの間の所定の関係を用いることにより、物体118の縦方向座標を決定するように構成されていてもよい。一例として、強度分布関数は、図8〜図13に関して以下に説明する通り、光線150のビーム形状関数であってもよい。強度分布関数は具体的に、光学センサ112の画素154の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含んでいてもよい。   Further, as described above and in more detail below, detector 110 may be configured to determine the longitudinal coordinates of object 118 and / or at least one beacon device 116 by using an intensity distribution. Good. For this reason, various algorithms described in more detail below as an example may be used. Thus, in general, the evaluation device 126 may be configured to determine the longitudinal coordinates of the object 118 by using a predetermined relationship between the intensity distribution and the longitudinal coordinates. Specifically, the evaluation device 126 may be configured to determine at least one intensity distribution function approximating the intensity distribution. Accordingly, the evaluation device 126 determines the longitudinal coordinates of the object 118 by using a predetermined relationship between the longitudinal coordinates and the intensity distribution function and / or at least one parameter derived from the intensity distribution function. It may be configured as follows. As an example, the intensity distribution function may be a beam shape function of light ray 150, as described below with respect to FIGS. Specifically, the intensity distribution function may include a two-dimensional or three-dimensional mathematical function that approximates the intensity information included in at least a part of the pixel 154 of the optical sensor 112.

この追加または代替として、図2Aおよび図2Bに関して以下に概説する通り、評価装置126は、強度分布を決定するように構成されていてもよく、この強度分布の決定は、光線150により照射された光学センサ112の画素の数Nの決定を含む。物体118の少なくとも1つの縦方向座標の決定には、光線150により照射された画素の数Nと縦方向座標との間の所定の関係の使用等、光線150により照射された画素の数Nの使用を含んでいてもよい。これらの選択肢は、さまざまに組み合わせ可能である。   In addition or as an alternative, as outlined below with respect to FIGS. 2A and 2B, the evaluation device 126 may be configured to determine an intensity distribution, the determination of the intensity distribution being illuminated by the light beam 150. Including determination of the number N of pixels of the optical sensor 112. The determination of at least one longitudinal coordinate of the object 118 includes the number N of pixels illuminated by the light beam 150, such as the use of a predetermined relationship between the number N of pixels illuminated by the light beam 150 and the longitudinal coordinate. May include use. These options can be combined in various ways.

具体的には、縦方向座標を決定するため、以下に説明する通り、光スポット156の直径および/または等価直径が評価されるようになっていてもよい。直径および/または等価直径は、強度分布関数を決定する上述の方法および/または光線150により照射された光学センサ112の画素の数Nを決定する上述の方法の使用等、さまざまな方法で決定されるようになっていてもよい。また、両選択肢の組み合わせも実現可能である。   Specifically, in order to determine the longitudinal coordinate, the diameter and / or equivalent diameter of the light spot 156 may be evaluated as described below. The diameter and / or equivalent diameter may be determined in various ways, such as using the method described above to determine the intensity distribution function and / or the method described above to determine the number N of pixels of the optical sensor 112 illuminated by the light beam 150. It may come to be. A combination of both options is also possible.

上記概説の通り、一例として、評価装置126は、光線150により照射された画素152の数Nを決定するように構成されていてもよい。このため、画素154それぞれが照射されたか否かを判定する1つまたは複数の閾値に対して、各画素154のセンサ信号を比較する閾値法を使用するようにしてもよい。この1つまたは複数の閾値によって、図2Aに示すように、光スポット156の境界線166を決定するようにしてもよい。一例として、典型的なガウス強度プロファイルを有するガウス照射を仮定すると、境界線166は、光スポット156の強度が(画素座標xmax、ymaxでの強度である)中心強度Iから1/e・Iまで低下した線として選定されるようになっていてもよい。 As outlined above, by way of example, the evaluation device 126 may be configured to determine the number N of pixels 152 illuminated by the light beam 150. For this reason, a threshold method may be used in which the sensor signal of each pixel 154 is compared with one or more threshold values for determining whether or not each pixel 154 has been irradiated. The boundary line 166 of the light spot 156 may be determined by the one or more threshold values as shown in FIG. 2A. As an example, assuming Gaussian illumination with a typical Gaussian intensity profile, the boundary 166 has a central intensity I 0 to 1 / e where the intensity of the light spot 156 is the intensity at the pixel coordinates x max , y max. It may be selected as a line lowered to 2 · I 0 .

閾値法は、一例として、図2Bに記号で示すように、1つの画像(多重化方式の1スキャンおよび/または同時に取得した画素の1画像等)のセンサ値のヒストグラム解析を用いることにより、容易に実現可能である。図2Bのヒストグラム解析は、図2Aに示す画像に完全には対応していないことに留意するものとする。図2Bにおいては、(ビット値またはグレースケール値等、電流以外のセンサ信号も使用可能であるという事実にも関わらず)1つの画像において得られた画素154のセンサ信号が「I」として水平軸上に示されている。垂直軸上には、センサ信号それぞれの数すなわち各センサ信号Iを与える画素154の数が「#」として示されている。これにより、一例としては、グレースケール値が水平軸上に示され、1つの画像における各グレースケール値を示す画素の数が垂直軸上に示されていてもよい。この画像における最も高いセンサ信号は、Iとして表示されている。適当な閾値1/e・I(ならびに/または1/e・Iより大きな最初の整数値および/もしくは1/e・Iより小さな最初の整数値等、この閾値に最も近い整数値(本発明には、これらの選択肢が含まれるものとする))を与えることにより、図2Bに記号で示すように、このヒストグラム解析における画素数は、非照射画素154の数(図2Bに符号168で示すとともに白棒で表示)すなわち図2Aの境界線166の外側の画素154のセンサ信号と、照射画素の数(図2Bに符号170で示すとともに黒棒で表示)すなわち図2Aの境界線166内の画素154の数とに分割されるようになっていてもよい。したがって、この閾値法および/または他の閾値法を用いることにより、適当なヒストグラム解析の使用等によって、照射画素と非照射画素とが識別されるようになっていてもよい。 As an example, the threshold method can be easily performed by using histogram analysis of sensor values of one image (such as one scan of a multiplexing method and / or one image of pixels acquired at the same time) as indicated by a symbol in FIG. 2B. Is feasible. It should be noted that the histogram analysis of FIG. 2B does not fully correspond to the image shown in FIG. 2A. In FIG. 2B, the sensor signal of pixel 154 obtained in one image is “I” (in spite of the fact that sensor signals other than current, such as bit values or gray scale values, can also be used). Shown above. On the vertical axis, the number of each sensor signal, that is, the number of pixels 154 that provide each sensor signal I is shown as “#”. Thereby, as an example, the gray scale value may be indicated on the horizontal axis, and the number of pixels indicating each gray scale value in one image may be indicated on the vertical axis. The highest sensor signal in this image is displayed as I0 . A suitable threshold 1 / e 2 · I 0 (and / or the first integer value greater than 1 / e 2 · I 0 and / or the first integer value less than 1 / e 2 · I 0 , etc.) By giving an integer value (the present invention includes these options), the number of pixels in this histogram analysis is the number of non-irradiated pixels 154 (FIG. 2B), as symbolically shown in FIG. 2B. 2B and indicated by a white bar), that is, the sensor signal of the pixel 154 outside the boundary line 166 in FIG. 2A, and the number of irradiated pixels (indicated by 170 in FIG. 2B and indicated by a black bar), It may be divided into the number of pixels 154 in the boundary line 166. Therefore, by using this threshold method and / or other threshold methods, the irradiation pixel and the non-irradiation pixel may be discriminated by using an appropriate histogram analysis or the like.

照射画素と非照射画素との識別によって、光線150により照射された画素154の数Nを計数可能である。したがって、図2Bの照射画素170およびそれぞれの数の積分により、照射画素の数Nが得られる。この追加または代替として、照射画素の数Nを決定する他の方法を使用するようにしてもよい。   By distinguishing between irradiated pixels and non-irradiated pixels, the number N of pixels 154 irradiated with the light beam 150 can be counted. Therefore, the number N of irradiation pixels is obtained by integration of the irradiation pixels 170 and the respective numbers in FIG. 2B. In addition to or as an alternative, other methods for determining the number N of illuminated pixels may be used.

上記方程式(4)または複数の光学センサ112の場合は方程式(4’)に示す通り、照射画素の数Nは、光スポット156の面積に比例する。したがって、如何なる種類の光線150も伝搬に伴って直径が変化することから、照射画素の数Nを評価することにより、物体118、具体的には各光線150を放出する1つまたは複数のビーコンデバイス116の縦方向座標が決定されるようになっていてもよい。一例としては、光線150のガウス特性を仮定することによって、上記方程式(6)および/または(6’)を使用するようにしてもよい。また、一例としては、光線150自体がガウス特性を有していてもよい。この追加または代替として、上記少なくとも1つの任意選択としてのレンズ138を備えた上記少なくとも1つの伝達装置136をビーム成形に使用するようにしてもよく、この場合もなお、物体118、具体的には各ビーコンデバイス116の縦方向位置に関する空間情報は、成形された光線150の伝搬特性に含まれている。   In the case of the above equation (4) or the plurality of optical sensors 112, the number N of irradiated pixels is proportional to the area of the light spot 156, as shown in equation (4 '). Thus, since any type of light beam 150 changes in diameter as it propagates, one or more beacon devices that emit an object 118, specifically each light beam 150, by evaluating the number N of illuminated pixels. 116 longitudinal coordinates may be determined. As an example, equation (6) and / or (6 ') may be used by assuming a Gaussian characteristic of ray 150. As an example, the light beam 150 itself may have a Gaussian characteristic. As an addition or alternative, the at least one transmission device 136 with the at least one optional lens 138 may be used for beam shaping, again in this case the object 118, specifically Spatial information regarding the vertical position of each beacon device 116 is included in the propagation characteristics of the shaped light beam 150.

検出器110の視野角が狭い場合、物体118と検出器110との間の距離は、z次元のみの距離と考えられる。ただし、マトリクス152およびたとえば上記アルゴリズムを用いることにより、横方向座標xおよび/またはyが追加で決定されるようになっていてもよいため、光線150の全進行距離は、光軸142からの各ビーコンデバイス116のオフセットを考慮に入れて容易に計算可能である。具体的に、軸外に配置された物体の場合は、図5に関する以下の説明を参照可能である。   When the viewing angle of the detector 110 is narrow, the distance between the object 118 and the detector 110 is considered to be a z-dimensional distance only. However, since the lateral coordinates x and / or y may be additionally determined by using the matrix 152 and, for example, the above algorithm, the total travel distance of the light ray 150 is It can be easily calculated taking into account the beacon device 116 offset. Specifically, in the case of an object arranged off-axis, the following description regarding FIG. 5 can be referred to.

上記概説の通り、センサスタック148の提供等によって、複数の光学センサ112が設けられているのが好ましい。光学センサ112の冗長性は、さまざまに利用可能である。   As outlined above, a plurality of optical sensors 112 are preferably provided, such as by providing sensor stack 148. The redundancy of the optical sensor 112 can be used in various ways.

したがって、上記概説の通り、光学センサ112のうちの1つの照射画素の数Nを決定することにより、ビームウェストが決定されるようになっていてもよい。ただし、上記方程式(3)、(6)、または(6’)のうちの1つまたは複数から容易に導出される通り、そこから導出される縦方向座標zは、焦点に関して曖昧である。したがって、ビームウェストを1つおよび/または照射画素の数Nを1つ決定しただけでは、ガウス光線150の焦点の前後いずれの特定距離zで各画像を取得したかという不確実性が生じる場合がある。この曖昧さは、さまざまに解消することができる。したがって、まず、一連の画像および/または追跡システム124の追跡制御装置172の使用等によって、検出器110および/または物体118の移動が追跡されるようになっていてもよい。これにより、物体118の移動の履歴が追跡され、物体118の付加的な空間情報を提供することにより、各光学センサ112が光線150の焦点の前後いずれに位置決めされているかを判定可能であってもよい。ただし、この追加または代替として、図3Aおよび図3Bに関して以下に説明する通り、この縦方向座標の曖昧さは、光学センサスタック148により提供される情報の冗長性を用いて解消されるようになっていてもよい。このため、図3Aには、ビーコンデバイス116のうちの1つまたは複数から検出器110へと進む光線150の簡単なビーム経路の側面図を示している。図から分かる通り、ガウスビーム伝搬特性のため、センサスタック148内の光線150は、この例示的な実施形態では中央の光学センサ112の近くにある焦点174に向かって狭くなる。また、ビーム経路の他の実施形態も実現可能である。図3Bには、光学センサのセンサ表面158および図3Aの構成の光学センサ112それぞれの各光スポット156を示している。光学センサ112には、図3Aのように、番号1〜5を付与している。図から分かる通り、焦点174に近い中央の光学センサ112の光スポット156は、最も小さい。一方、光スポット156の直径は、この中央のセンサ(センサ番号3)の右側および左側では広がっている。光学センサ1と5または光学センサ2と4を比較して分かる通り、光スポット156の直径は曖昧である。ただし、隣接する光学センサの光スポットの直径に対して特定の直径を比較することにより、光線が拡がっているか狭まっているか、すなわち各光学センサ112が焦点174の前後いずれに位置決めされているかを判定可能である。このように、上述の曖昧さが解消され、座標系146および/または別の座標系等において、z座標が決定されるようになっていてもよい。   Therefore, as described above, the beam waist may be determined by determining the number N of irradiation pixels of one of the optical sensors 112. However, as readily derived from one or more of equations (3), (6), or (6 ') above, the longitudinal coordinate z derived therefrom is ambiguous with respect to focus. Therefore, when only one beam waist and / or one irradiation pixel number N is determined, there is a case where uncertainty is generated as to whether each image is acquired at a specific distance z before or after the focus of the Gaussian ray 150. is there. This ambiguity can be resolved in various ways. Accordingly, the movement of the detector 110 and / or the object 118 may first be tracked, such as by using a series of images and / or the tracking controller 172 of the tracking system 124. As a result, the movement history of the object 118 is tracked, and by providing additional spatial information of the object 118, it is possible to determine whether each optical sensor 112 is positioned before or after the focal point of the light beam 150. Also good. However, as an addition or alternative, this ordinate ambiguity will be resolved using the information redundancy provided by the optical sensor stack 148, as described below with respect to FIGS. 3A and 3B. It may be. Thus, FIG. 3A shows a side view of a simple beam path of a ray 150 traveling from one or more of the beacon devices 116 to the detector 110. As can be seen, due to the Gaussian beam propagation characteristics, the light ray 150 in the sensor stack 148 narrows towards a focal point 174 near the central optical sensor 112 in this exemplary embodiment. Other embodiments of the beam path are also feasible. FIG. 3B shows each light spot 156 of the sensor surface 158 of the optical sensor and each of the optical sensors 112 configured as in FIG. 3A. The optical sensors 112 are assigned numbers 1 to 5 as shown in FIG. 3A. As can be seen, the light spot 156 of the central optical sensor 112 near the focal point 174 is the smallest. On the other hand, the diameter of the light spot 156 is widened on the right side and the left side of the central sensor (sensor number 3). As can be seen by comparing optical sensors 1 and 5 or optical sensors 2 and 4, the diameter of light spot 156 is ambiguous. However, by comparing a specific diameter with the diameter of the light spot of the adjacent optical sensor, it is determined whether the light beam is expanding or narrowing, that is, whether each optical sensor 112 is positioned before or after the focal point 174. Is possible. In this way, the above ambiguity is resolved, and the z coordinate may be determined in the coordinate system 146 and / or another coordinate system or the like.

上記概説の通り、センサスタック148の光学センサ112は、光線150に対して透明であるのが好ましい。図3Aにおいて「5」と命名した光学センサ112等、物体118に対向しないセンサスタック148の最後の光学センサ112については、必ずしも透明である必要はない。したがって、この最後の光学センサ112は、不透明であってもよい。   As outlined above, the optical sensor 112 of the sensor stack 148 is preferably transparent to the light beam 150. The last optical sensor 112 in the sensor stack 148 that does not face the object 118, such as the optical sensor 112 named “5” in FIG. 3A, does not necessarily have to be transparent. Thus, this last optical sensor 112 may be opaque.

上記詳細な概説の通り、複数の光学センサ112をスタック状等に設けることは、追加または代替として、その他の目的のためであってもよい。したがって、光学センサ112は、異なるスペクトル感度を与えることにより、光線150の色に関する少なくとも1つの情報を提供するようになっていてもよい。このため、図3Cにおいては、光学センサ112のうちの3つについて、吸光係数を波長λの関数として示している。これらの吸光係数または各光学センサ112の吸収スペクトルを示すその他任意の尺度は、適当な色素等の適当な吸収材料を光学センサ112内に設けることにより調整されるようになっていてもよい。一例として、光学センサ112が色素増感太陽電池(DSC、具体的にはsDSC)を備える場合は、適当な色素が選定されるようになっていてもよい。一例として、図3Cには、一例として波長λの関数として、光学センサ1、2、および3の異なるスペクトル感度(正規化感度等)εを示している。センサ表面158上のすべての光スポット156について光線の総パワーが同一のままであるという仮定または特定の光学センサ112を通過した後の光線150の既知の減衰により、吸収特性が異なる各光学センサ112のセンサ信号の比率を用いて、光線150の色を決定するようにしてもよい。一例としては、光学センサ112それぞれについて、画素154それぞれのセンサ信号を加算することにより、合計センサ信号が決定されるようになっていてもよい。あるいは、センサ信号のピーク値または最大値等、光学センサ112それぞれの代表的なセンサ信号が決定されるようになっていてもよい。また、あるいは、光スポット156内の画素154のセンサ信号を積分することにより、光学センサ112それぞれの代表的なセンサ信号が生成されるようになっていてもよい。図3Cに示す例示的な実施形態においては、第3の光学センサ(センサ番号3)のセンサ信号を光学センサ1、2、および3のセンサ信号の合計で除算することにより、たとえば光線150の緑色成分に関する情報が決定されるようになっていてもよい。同様に、第1の光学センサのセンサ信号を光学センサ1、2、および3のセンサ信号の合計で除算することにより、光線150の黄色成分が決定されるようになっていてもよい。また、同様に、第2の光学センサ112のセンサ信号を光学センサ1、2、および3のセンサ信号の合計で除算することにより、光線150の赤色成分が決定されるようになっていてもよい。また、色を決定する他の実施形態および/またはアルゴリズムも実現可能である。これにより、一例としては、光学センサ112のうちの3つの吸収スペクトルが上述のCIE座標系の基本として使用する吸収材料と類似することにより、光線150のCIE座標を直接決定可能であってもよい。光線150の色の決定は、物体118の縦方向座標の上記決定から独立していることに留意するものとする。上述のアルゴリズムは、光線150の色とは関係なく、単に照射画素および非照射画素の数にのみ基づくためである。したがって、たとえば図2Aおよび図2Bに関して上述した閾値法およびヒストグラム解析においては、光線の強度および/または光線の色の内部正規化を行うようにしてもよい。上記概説の通り、この閾値は、最大強度および/または最大センサ信号の関数および/または割合として選定されるようになっていてもよいためである。このため、上述の画素数を用いた縦方向座標の決定は、センサスタック148内の各光学センサ112が異なるスペクトル吸収特性を有していてもよいという事実とは無関係である。   As described in detail above, providing a plurality of optical sensors 112 in a stack or the like may be for other purposes, in addition or as an alternative. Accordingly, the optical sensor 112 may provide at least one information regarding the color of the light beam 150 by providing different spectral sensitivities. Therefore, in FIG. 3C, the extinction coefficient is shown as a function of the wavelength λ for three of the optical sensors 112. These extinction coefficients or other arbitrary measures indicating the absorption spectrum of each optical sensor 112 may be adjusted by providing an appropriate absorbing material such as an appropriate dye in the optical sensor 112. As an example, when the optical sensor 112 includes a dye-sensitized solar cell (DSC, specifically, sDSC), an appropriate dye may be selected. As an example, FIG. 3C shows different spectral sensitivities (normalized sensitivity, etc.) ε of optical sensors 1, 2, and 3 as a function of wavelength λ as an example. Each optical sensor 112 with different absorption characteristics due to the assumption that the total power of the light beam remains the same for all light spots 156 on the sensor surface 158 or because of the known attenuation of the light beam 150 after passing through a particular optical sensor 112. The color of the light beam 150 may be determined using the ratio of the sensor signals. As an example, the total sensor signal may be determined by adding the sensor signals of the pixels 154 for each of the optical sensors 112. Alternatively, a representative sensor signal of each optical sensor 112 such as a peak value or a maximum value of the sensor signal may be determined. Alternatively, representative sensor signals of the respective optical sensors 112 may be generated by integrating sensor signals of the pixels 154 in the light spot 156. In the exemplary embodiment shown in FIG. 3C, the sensor signal of the third optical sensor (sensor number 3) is divided by the sum of the sensor signals of optical sensors 1, 2, and 3, for example, the green color of light ray 150. Information about the component may be determined. Similarly, the yellow component of the light beam 150 may be determined by dividing the sensor signal of the first optical sensor by the sum of the sensor signals of the optical sensors 1, 2, and 3. Similarly, the red component of the light beam 150 may be determined by dividing the sensor signal of the second optical sensor 112 by the sum of the sensor signals of the optical sensors 1, 2, and 3. . Other embodiments and / or algorithms for determining colors are also possible. Thereby, as an example, the CIE coordinates of the light beam 150 may be directly determined by the absorption spectra of three of the optical sensors 112 being similar to the absorbing material used as the basis of the CIE coordinate system described above. . Note that the determination of the color of light ray 150 is independent of the above determination of the longitudinal coordinates of object 118. This is because the algorithm described above is based solely on the number of irradiated pixels and non-irradiated pixels regardless of the color of the light ray 150. Thus, for example, in the threshold method and histogram analysis described above with respect to FIGS. 2A and 2B, internal normalization of light intensity and / or light color may be performed. As outlined above, this threshold may be selected as a function and / or percentage of maximum intensity and / or maximum sensor signal. For this reason, the determination of the vertical coordinate using the number of pixels described above is irrelevant to the fact that each optical sensor 112 in the sensor stack 148 may have different spectral absorption characteristics.

上記概説の通り、検出器110を用いて物体118および/またはその一部の位置を決定することにより、マンマシンインターフェース120を提供して、少なくとも1つの情報を機械176に与えるようにしてもよい。図1に模式的に示す実施形態において、機械176は、コンピュータであることおよび/またはコンピュータを含むことが可能である。また、他の実施形態も実現可能である。また、評価装置126は、全部または一部がコンピュータ等の機械176に組み込まれていてもよい。同じことが追跡制御装置172にも当てはまり、その全部または一部が機械176のコンピュータの一部を構成していてもよい。   As outlined above, determining the position of the object 118 and / or a portion thereof using the detector 110 may provide the man machine interface 120 to provide at least one piece of information to the machine 176. . In the embodiment schematically illustrated in FIG. 1, the machine 176 can be a computer and / or include a computer. Other embodiments are also possible. Further, the evaluation device 126 may be wholly or partly incorporated in a machine 176 such as a computer. The same applies to the tracking controller 172, all or part of which may form part of the machine 176 computer.

同様に、上記概説の通り、マンマシンインターフェース120は、娯楽装置122の一部を構成していてもよい。また、機械176、具体的にはコンピュータは、娯楽装置122の一部を構成していてもよい。したがって、ユーザ134が物体118として作用することおよび/または制御装置132を取り扱うユーザ134が物体118として作用することにより、ユーザ134は、少なくとも1つの制御コマンド等の少なくとも1つの情報をコンピュータに入力することで、コンピュータゲームの成り行きの制御等、娯楽機能を変更するようにしてもよい。   Similarly, as outlined above, the man-machine interface 120 may form part of the entertainment device 122. Also, the machine 176, specifically the computer, may form part of the entertainment device 122. Accordingly, by the user 134 acting as the object 118 and / or the user 134 handling the control device 132 acting as the object 118, the user 134 inputs at least one information, such as at least one control command, to the computer. Thus, entertainment functions such as control of the outcome of a computer game may be changed.

上記概説の通り、上記1つの光学センサ112ならびに/または光学センサ112のうちの1つもしくは複数は、好ましくは全部または一部が光線150に対して透明であってもよい。図4A〜図4Cには、透明な光学センサ112の例示的な一構成をさまざまに示している。ここで、図4Aは上面図であり、図4Bは図4AのA−A線に沿った断面図であり、図4Cは図4AのB−B線に沿った断面図である。   As outlined above, the one optical sensor 112 and / or one or more of the optical sensors 112 may preferably be wholly or partially transparent to the light beam 150. 4A-4C variously illustrate an exemplary configuration of the transparent optical sensor 112. Here, FIG. 4A is a top view, FIG. 4B is a cross-sectional view along line AA in FIG. 4A, and FIG. 4C is a cross-sectional view along line BB in FIG. 4A.

光学センサ112は、ガラス基板および/またはプラスチック基板等の透明な基板178を備えていてもよい。基板178の可能な詳細については、文献、国際公開第2012/110924A1号明細書、米国仮特許出願第61/739,173号明細書および米国仮特許出願第61/749,964号明細書を参照可能である。ただし、他の実施形態も実現可能である。光線150は、基板178を通る照射および/または反対側からの照射が可能である。したがって、図4Bの基板178の底面は、センサ表面158を構成していてもよい。あるいは、反対の表面から照射が行われるようになっていてもよい。   The optical sensor 112 may include a transparent substrate 178 such as a glass substrate and / or a plastic substrate. For possible details of the substrate 178, see literature, WO2012 / 110924A1, US provisional patent application 61 / 739,173 and US provisional patent application 61 / 749,964. Is possible. However, other embodiments are possible. The light beam 150 can be irradiated through the substrate 178 and / or from the opposite side. Therefore, the bottom surface of the substrate 178 in FIG. 4B may constitute the sensor surface 158. Alternatively, irradiation may be performed from the opposite surface.

基板178上には、第1の電極180が堆積し、本実施形態では、複数の第1の電極ストライプ182を備えていてもよい。第1の電極180は、全部または一部が透明であるのが好ましい。これにより、一例として、第1の電極180は、全部または一部がフッ素ドープ酸化スズ(FTO)および/またはインジウムドープ酸化スズ(ITO)等の透明な導電性酸化物で構成されていてもよい。第1の電極180のさらなる詳細については、国際公開第2012/110924A1号明細書ならびに/または米国仮特許出願第61/739,173号明細書および/もしくは米国仮特許出願第61/749,964号明細書のうちの1つもしくは複数を参照可能である。ただし、他の実施形態も実現可能である。また、たとえばエッチングおよび/またはリソグラフィ技術等、ディスプレイ技術分野の当業者が一般的に把握している適当なパターン化技術によって、第1の電極ストライプ182のパターン化が行われるようになっていてもよい。これにより、一例としては、LCD製造等のディスプレイ製造の技術分野の当業者に既知の通り、第1の電極180の材料による大面積コーティングが基板178に行われるようになっていてもよく、第1の電極ストライプ182のエリアがフォトレジストで覆われ、覆われていない領域が適当なエッチング手段によりエッチングされるようになっていてもよい。   A first electrode 180 is deposited on the substrate 178, and a plurality of first electrode stripes 182 may be provided in this embodiment. The first electrode 180 is preferably wholly or partially transparent. Thus, as an example, the first electrode 180 may be entirely or partially made of a transparent conductive oxide such as fluorine-doped tin oxide (FTO) and / or indium-doped tin oxide (ITO). . For further details of the first electrode 180, see WO 2012 / 110924A1 and / or US Provisional Patent Application 61 / 739,173 and / or US Provisional Patent Application 61 / 749,964. Reference may be made to one or more of the specification. However, other embodiments are possible. Also, the first electrode stripe 182 may be patterned by an appropriate patterning technique generally known to those skilled in the display arts, such as etching and / or lithography techniques. Good. Thus, as an example, a large area coating with the material of the first electrode 180 may be applied to the substrate 178 as known to those skilled in the art of display manufacturing, such as LCD manufacturing, The area of one electrode stripe 182 may be covered with a photoresist, and the uncovered area may be etched by a suitable etching means.

第1の電極180上には、1つ、2つ、または3つ以上の層を含む感光層構成等、1つまたは複数の感光層184が堆積している。一例として、感光層184は、国際公開第2012/110924A1号明細書ならびに/または米国仮特許出願第61/739,173号明細書および/もしくは米国仮特許出願第61/749,964号明細書のうちの1つもしくは複数に開示されているような色素増感太陽電池(DSC)、より具体的には固体色素増感太陽電池(sDSC)の層構成を備えていてもよい。したがって、感光層184は、第1の電極180上に直接的または間接的に堆積可能なTiO等のn半導体金属酸化物、好ましくはナノ多孔質金属酸化物の1つまたは複数の層を備えていてもよい。さらに、n半導体金属酸化物は、1つまたは複数の有機色素、好ましくは国際公開第2012/110924A1号明細書ならびに/または米国仮特許出願第61/739,173号明細書および/もしくは米国仮特許出願第61/749,964号明細書のうちの1つもしくは複数に開示の色素のうちの1つまたは複数等、1つまたは複数の色素によって全部または一部が増感されていてもよい。また、他の実施形態も実現可能である。 Deposited on the first electrode 180 is one or more photosensitive layers 184, such as a photosensitive layer configuration including one, two, three or more layers. As an example, the photosensitive layer 184 can be formed from WO 2012/110924 A1 and / or US provisional patent application 61 / 739,173 and / or US provisional patent application 61 / 749,964. A layer structure of a dye-sensitized solar cell (DSC) as disclosed in one or more of them, more specifically, a solid dye-sensitized solar cell (sDSC) may be provided. Thus, the photosensitive layer 184 comprises one or more layers of an n-semiconductor metal oxide such as TiO 2 , preferably nanoporous metal oxide, which can be deposited directly or indirectly on the first electrode 180. It may be. In addition, the n-semiconductor metal oxide may contain one or more organic dyes, preferably WO 2012/110924 A1 and / or US Provisional Patent Application 61 / 739,173 and / or US Provisional Patent. One or more dyes, such as one or more of the dyes disclosed in one or more of the applications 61 / 749,964, may be sensitized in whole or in part. Other embodiments are also possible.

色素増感n半導体金属酸化物上には、p半導体および/または導電性材料の1つまたは複数の層が堆積していてもよい。したがって、好ましくはn半導体金属酸化物上に直接的または間接的に堆積可能な1つまたは複数の固体p半導体有機材料を使用するようにしてもよい。一例としては、国際公開第2012/110924A1号明細書ならびに/または米国仮特許出願第61/739,173号明細書および/もしくは米国仮特許出願第61/749,964号明細書のうちの1つもしくは複数に開示されているようなp半導体材料のうちの1つまたは複数を参照可能である。好適な一例として、スピロMeOTADを使用するようにしてもよい。   One or more layers of p-semiconductor and / or conductive material may be deposited on the dye-sensitized n-semiconductor metal oxide. Accordingly, one or more solid p semiconductor organic materials that can be deposited directly or indirectly on the n semiconductor metal oxide may be used. As an example, one of W02012 / 110924A1 and / or U.S. provisional patent application 61 / 739,173 and / or U.S. provisional patent application 61 / 749,964. Alternatively, reference may be made to one or more of the p semiconductor materials as disclosed in the plurality. As a suitable example, spiro MeOTAD may be used.

好ましくは1つまたは複数の有機感光層184を含み得る上記感光層184は、別の層構成で設けられていてもよいことに留意するものとする。したがって、基本的には、有機、無機、または混成の層構成等、該層構成の照射に応じて電気信号を与えるように構成された如何なる種類の感光材料を使用するようにしてもよい。   It should be noted that the photosensitive layer 184, which may preferably include one or more organic photosensitive layers 184, may be provided in another layer configuration. Therefore, basically, any type of photosensitive material configured to give an electric signal in response to irradiation of the layer structure, such as an organic, inorganic, or hybrid layer structure, may be used.

具体的には図4Aの上面図から分かる通り、上記1つまたは複数の感光層184は、第1の電極ストライプ182を接触させる1つまたは複数の接触エリア186が該感光層184によって覆われることのないように、パターン化されているのが好ましい。このパターン化は、さまざまに実行可能である。したがって、感光層184の大面積コーティングを適用した後、レーザアブレーションおよび/または機械的アブレーション等によって、接触エリア186が露出されるようになっていてもよい。ただし、この追加または代替として、上記1つまたは複数の感光層184は、適当な印刷技術の使用等によって、全部または一部がパターン化されて構成に適用されるようになっていてもよい。また、上記技術の組み合わせも実現可能である。   Specifically, as can be seen from the top view of FIG. 4A, the one or more photosensitive layers 184 have one or more contact areas 186 that contact the first electrode stripes 182 covered by the photosensitive layer 184. It is preferable that it is patterned so that there is no occurrence. This patterning can be performed in various ways. Accordingly, the contact area 186 may be exposed by laser ablation and / or mechanical ablation after applying a large area coating of the photosensitive layer 184. However, as an addition or alternative to this, the one or more photosensitive layers 184 may be applied to the configuration with all or a part thereof being patterned by using an appropriate printing technique or the like. Combinations of the above techniques are also possible.

上記少なくとも1つの感光層184上には、少なくとも1つの第2の電極188が堆積していてもよい。この少なくとも1つの第2の電極188についても、好ましくは複数の電極ストライプを備えていてもよく、本実施形態においては、符号190(第2の電極ストライプ)で示している。具体的には図4Aの上面図から分かる通り、第2の電極ストライプ190は、90°±20°、好ましくは90°±10°、より好ましくは90°±5°の角度等で、第1の電極ストライプ182に対して本質的に垂直に配向しているのが好ましい。ただし、第1の電極180および第2の電極188は、他の電極形状も実現可能であることに留意するものとする。   On the at least one photosensitive layer 184, at least one second electrode 188 may be deposited. The at least one second electrode 188 may also preferably include a plurality of electrode stripes, and is denoted by reference numeral 190 (second electrode stripe) in the present embodiment. Specifically, as can be seen from the top view of FIG. 4A, the second electrode stripe 190 has an angle of 90 ° ± 20 °, preferably 90 ° ± 10 °, more preferably 90 ° ± 5 °, etc. Preferably, it is oriented essentially perpendicular to the electrode stripes 182. However, it should be noted that the first electrode 180 and the second electrode 188 can have other electrode shapes.

図4Aの上面図から分かる通り、第2の電極ストライプ190はそれぞれ、該第2の電極ストライプ190の電気的接触を可能とする少なくとも1つの接触エリア192を備える。   As can be seen from the top view of FIG. 4A, each second electrode stripe 190 includes at least one contact area 192 that allows electrical contact of the second electrode stripe 190.

図4Aの上面図からさらに分かる通り、光学センサ112の層構成は、第2の電極ストライプ190が第1の電極ストライプ182と交差する複数のエリアを提供している。これらのエリアはそれぞれ、画素154とも称する個別の光学センサをそれ自体が構成していてもよく、各電極ストライプ182、190の適当な接触エリア186、192との電気的な接触によって、電気的に接触可能である。したがって、上記説明の通り、これら個別の光学センサを流れる電流を測定することによって、画素154それぞれが個別の光信号を提供するようになっていてもよい。本実施形態においては、画素154が矩形構成に配置され、矩形マトリクス152を構成していてもよい。ただし、非矩形マトリクス構成等、他の構成も実現可能であることに留意するものとする。これにより、一例としては、ハニカム構造または他の幾何学的構成が実現可能である。   As can be further seen from the top view of FIG. 4A, the layer configuration of the optical sensor 112 provides a plurality of areas where the second electrode stripe 190 intersects the first electrode stripe 182. Each of these areas may itself constitute a separate optical sensor, also referred to as a pixel 154, which is electrically connected by electrical contact with the appropriate contact areas 186, 192 of each electrode stripe 182, 190. Touchable. Therefore, as described above, each of the pixels 154 may provide an individual optical signal by measuring the current flowing through these individual optical sensors. In the present embodiment, the pixels 154 may be arranged in a rectangular configuration to form the rectangular matrix 152. However, it should be noted that other configurations such as a non-rectangular matrix configuration are possible. Thereby, as an example, a honeycomb structure or other geometric configuration can be realized.

図4A〜図4Cに示す層構成のほか、光学センサ112は、1つもしくは複数の被包層ならびに/またはガラス蓋および/もしくはプラスチック蓋等の1つもしくは複数のカバー要素等、1つまたは複数の被包要素を備えていてもよい。たとえば後者は、好ましくは接触エリア186、192を開口したままで、たとえば図4Bおよび図4Cに示す層構成上に貼り付けられるようになっていてもよい。   In addition to the layer configuration shown in FIGS. 4A-4C, the optical sensor 112 may include one or more encapsulation layers and / or one or more cover elements such as a glass lid and / or a plastic lid. The enveloping element may be provided. For example, the latter may be adapted to be applied, for example, on the layer configuration shown in FIGS. 4B and 4C, preferably with the contact areas 186, 192 open.

第2の電極ストライプ190は、好ましくはAl、Ag、Au、Pt、Cuから成る群から選択される金属の1つまたは複数の層等、1つまたは複数の金属層を備えていてもよい。この追加または代替として、金属合金等、2つ以上の金属の組み合わせを使用するようにしてもよい。一例としては、NiCr、AlNiCr、MoNb、およびAlNdから成る群から選択される1つまたは複数の金属合金を使用するようにしてもよい。さらに、他の実施形態も実現可能である。好ましくは、第1の電極ストライプ182に対して、第2の電極ストライプ190の全部または一部が透明であってもよい。この透明性は、さまざまに実現することができる。これにより、一例としては、30nm以下または20nm以下の厚さ等、50nm未満の厚さを有する金属層等の薄い金属層を使用するようにしてもよい。このような層厚さにおいて、一般的な金属は依然として透明である。ただし、この追加または代替として、導電性ポリマー等の非金属導電性材料を使用するようにしてもよい。一例としては、PEDOT:PSSおよび/またはPANIを使用するようにしてもよい。第2の電極188の構成のその他可能な詳細については、上述の通り、国際公開第2012/110924A1号明細書、米国仮特許出願第61/739,173号明細書、および/または米国仮特許出願第61/749,964号明細書を参照可能である。   The second electrode stripe 190 may comprise one or more metal layers, such as one or more layers of metal, preferably selected from the group consisting of Al, Ag, Au, Pt, Cu. As an addition or alternative, a combination of two or more metals, such as a metal alloy, may be used. As an example, one or more metal alloys selected from the group consisting of NiCr, AlNiCr, MoNb, and AlNd may be used. Furthermore, other embodiments are possible. Preferably, all or part of the second electrode stripe 190 may be transparent with respect to the first electrode stripe 182. This transparency can be realized in various ways. Thereby, as an example, a thin metal layer such as a metal layer having a thickness of less than 50 nm, such as a thickness of 30 nm or less or 20 nm or less, may be used. At such layer thickness, common metals are still transparent. However, as an addition or alternative, a non-metallic conductive material such as a conductive polymer may be used. As an example, PEDOT: PSS and / or PANI may be used. Other possible details of the construction of the second electrode 188 are described above in WO 2012 / 110924A1, US provisional patent application 61 / 739,173, and / or US provisional patent application. No. 61 / 749,964 can be referred to.

第2の電極ストライプ190は、通常の適用技術を用いて層構成に適用されるようになっていてもよい。これにより、一例としては、物理的気相成長法(蒸着および/またはスパッタリング等)を用いて、1つまたは複数の金属層を堆積するようにしてもよい。導電性ポリマー等の非金属導電性材料は、たとえばスピンコーティングおよび/または印刷等の通常のコーティング技術を用いて適用されるようになっていてもよい。また、他の技術も実現可能である。この第2の電極ストライプ190のパターン化は、さまざまに実行可能である。したがって、蒸着技術および/または真空蒸着技術を使用する場合は、シャドーマスクを通じた蒸着等のマスク技術を使用するようにしてもよい。この追加または代替として、パターン化による印刷を実行するようにしてもよい。これにより、一例として、導電性ポリマーのパターン化には、スクリーン印刷および/またはインクジェット印刷を使用するようにしてもよい。また、この追加または代替として、第2の電極188を第2の電極ストライプ190に細分化するフォトレジストパターン等、1つまたは複数の分離パターンが層構成および/または基板178上に設けられていてもよい。   The second electrode stripe 190 may be applied to the layer configuration using a normal application technique. Thus, as an example, one or more metal layers may be deposited using physical vapor deposition (evaporation and / or sputtering, etc.). Non-metallic conductive materials such as conductive polymers may be applied using conventional coating techniques such as spin coating and / or printing. Other techniques are also feasible. The patterning of the second electrode stripe 190 can be performed in various ways. Therefore, when using the vapor deposition technique and / or the vacuum vapor deposition technique, a mask technique such as vapor deposition through a shadow mask may be used. As an addition or alternative to this, printing by patterning may be executed. Thus, as an example, screen printing and / or ink jet printing may be used to pattern the conductive polymer. In addition or as an alternative, one or more separation patterns, such as a photoresist pattern that subdivides the second electrode 188 into second electrode stripes 190, are provided on the layer configuration and / or the substrate 178. Also good.

さらに、第1の電極180、上記1つまたは複数の感光層184、および第2の電極188の層構成は、逆になっていても差し支えないことに留意するものとする。これにより、一例として、DSC、具体的にはsDSCの層構成は、上述の層構成と比較して逆になっていてもよい。さらに、この追加または代替として、電極180、188の構成が逆になっており、第2の電極188を基板178上に設け、上記1つまたは複数の感光層184を直接的または間接的にこの第2の電極上に設け、第1の電極180をこの少なくとも1つの感光層184上に設けていてもよい。また、構成の種々変形も実現可能である。さらに、電極180、188のうちの1つまたは複数が不透明であっても差し支えないことに留意するものとする。したがって、上記説明の通り、光学センサ112を1つだけ有する検出器110が実現可能である。この場合、光学センサ112は、必ずしも透明である必要はない。これにより、一例として、光がセンサ表面158を介して光学センサ112に透過する場合は、厚い金属層の使用等によって、第2の電極188が不透明であってもよい。光が他方の面から光学センサ112に透過する場合は、第1の電極180が不透明な電極であってもよい。さらに、たとえば図1の構成のように、センサスタック148を使用する場合は、物体118に対向しないセンサスタック148の最後の光学センサ112が必ずしも透明である必要はない。このように、不透明な光学センサ112を使用するようにしてもよい。   Further, it should be noted that the layer configuration of the first electrode 180, the one or more photosensitive layers 184, and the second electrode 188 can be reversed. Thereby, as an example, the layer configuration of DSC, specifically, sDSC may be reversed compared to the above-described layer configuration. Further, as an addition or alternative, the configuration of the electrodes 180, 188 is reversed, a second electrode 188 is provided on the substrate 178, and the one or more photosensitive layers 184 are directly or indirectly provided. The first electrode 180 may be provided on the second electrode, and the first electrode 180 may be provided on the at least one photosensitive layer 184. Various modifications of the configuration can also be realized. It should further be noted that one or more of the electrodes 180, 188 can be opaque. Therefore, as described above, the detector 110 having only one optical sensor 112 can be realized. In this case, the optical sensor 112 does not necessarily need to be transparent. Thus, as an example, when light is transmitted through the sensor surface 158 to the optical sensor 112, the second electrode 188 may be opaque, such as by using a thick metal layer. When light is transmitted to the optical sensor 112 from the other surface, the first electrode 180 may be an opaque electrode. Further, when the sensor stack 148 is used as in the configuration of FIG. 1, for example, the last optical sensor 112 of the sensor stack 148 that does not face the object 118 does not necessarily have to be transparent. Thus, the opaque optical sensor 112 may be used.

図5には、図2A〜図3Bに関する上記説明に加えて、検出器110およびカメラ111の別の実施形態を部分斜視図として示しており、以下、これを用いて、光線150を放出する少なくとも1つの物体118(この図には示さず)の位置を決定する一実施形態をさらに説明する。検出器110および/またはカメラ111は、検出システム114、マンマシンインターフェース120、娯楽装置122、または追跡システム124の一部であってもよく、図5に示していない付加的な構成要素を備えていてもよい。これにより、一例として、評価装置126は図示していない。評価装置126の可能な実施形態および/またはさらなる詳細については、上記実施形態を参照可能である。   FIG. 5 shows, in addition to the above description with respect to FIGS. 2A-3B, another embodiment of detector 110 and camera 111 as a partial perspective view, which will be used hereinafter to emit at least light ray 150. One embodiment for determining the position of one object 118 (not shown in this figure) is further described. Detector 110 and / or camera 111 may be part of detection system 114, man-machine interface 120, entertainment device 122, or tracking system 124, and includes additional components not shown in FIG. May be. Thereby, as an example, the evaluation apparatus 126 is not illustrated. For possible embodiments and / or further details of the evaluation device 126, reference may be made to the above embodiments.

図から分かる通り、本実施形態においても、検出器110は、複数の光学センサ112を備えており、この場合もセンサスタック148として配置されている。光学センサ112およびセンサスタック148の可能な実施形態については、上記開示の実施形態を参照可能である。   As can be seen from the figure, also in this embodiment, the detector 110 includes a plurality of optical sensors 112, and in this case as well, it is arranged as a sensor stack 148. For possible embodiments of the optical sensor 112 and sensor stack 148, reference may be made to the embodiments disclosed above.

センサスタック148は、少なくとも2つの光学センサ112を備え、本実施形態においては2つの光学センサ112のみを示しており、1つの光学センサ112が物体118に対向し(図5の最後の光学センサ112)、1つの光学センサ112が物体118に対向していない(右側の光学センサ112)。光線150の少なくとも一部が減衰せずまたは減衰して、スペクトル特性が不変または修正された状態で光学センサ112を通過するように、光学センサ112の少なくとも1つは、光線150に対して少なくとも部分的に透明であるのが好ましい。このため、図5においては、左側の光学センサ112の全部または一部が透明である一方、右側の光学センサ112は不透明であってもよいし、透明であってもよい。   The sensor stack 148 includes at least two optical sensors 112, and in the present embodiment, only two optical sensors 112 are shown, and one optical sensor 112 faces the object 118 (the last optical sensor 112 in FIG. 5). ) One optical sensor 112 does not face the object 118 (right optical sensor 112). At least one of the optical sensors 112 is at least partially with respect to the light beam 150 such that at least a portion of the light beam 150 is unattenuated or attenuated and passes through the optical sensor 112 with a spectral characteristic unchanged or modified. It is preferably transparent. For this reason, in FIG. 5, all or part of the left optical sensor 112 is transparent, while the right optical sensor 112 may be opaque or transparent.

光線150は、好ましくは光学センサ112のセンサ表面158に直交するz軸に平行または非平行となり得る伝搬軸196に沿って、伝搬方向194に伝搬するようになっていてもよい。   The light beam 150 may be adapted to propagate in the propagation direction 194 along a propagation axis 196 that may be preferably parallel or non-parallel to the z-axis orthogonal to the sensor surface 158 of the optical sensor 112.

図2Aおよび図2Bに関する上記概説および図3Aおよび図3Bに関する上記概説の通り、光線150によって光学センサ112上に形成された光スポット156が評価されるようになっていてもよい。したがって、上記概説の通り、光スポット156のうちの1つまたは複数に関して、少なくとも、画素154が与える解像度の境界内で中心198が決定されるようになっていてもよい。一例として、図5においては、光学センサ112が画素154のマトリクス152を含み、各画素がその行(図5に行識別子A〜Iの記号で示す)およびその列(図5に列識別子1〜7の記号で示す)を特徴とする。行識別子および列識別子の両者としての数字の使用等、画素座標を識別する他の実施形態も実現可能である。これにより、図5に示す例示的な実施形態において、左側の光学センサ112の光スポット156の中心198は、行DとE間および列4と5間に配置されているものと識別可能である一方、右側の光学センサ112の光スポット156の中心198は、行Dおよび列6に配置されているものと識別可能である。したがって、中心198を結ぶことにより、光線150の伝搬軸196を容易に決定することができる。その結果、検出器110に対する物体118の方向を決定可能である。このように、右側の光学センサ112上の光スポット156の中心198が右側(すなわち、列番号の高い側)にシフトしているため、物体118は、z軸から中心を外れて右側に位置しているものと決定することができる。   As described above with respect to FIGS. 2A and 2B and with respect to FIGS. 3A and 3B, the light spot 156 formed on the optical sensor 112 by the light beam 150 may be evaluated. Thus, as outlined above, for one or more of the light spots 156, the center 198 may be determined at least within the resolution boundary provided by the pixel 154. As an example, in FIG. 5, the optical sensor 112 includes a matrix 152 of pixels 154, each pixel having its row (denoted by the symbol of row identifiers A to I in FIG. 5) and its column (column identifiers 1 to 1 in FIG. 7). Other embodiments for identifying pixel coordinates such as the use of numbers as both row and column identifiers are possible. Thus, in the exemplary embodiment shown in FIG. 5, the center 198 of the light spot 156 of the left optical sensor 112 is distinguishable from that located between rows D and E and between columns 4 and 5. On the other hand, the center 198 of the light spot 156 of the right optical sensor 112 can be distinguished from those arranged in the row D and the column 6. Therefore, by connecting the center 198, the propagation axis 196 of the light ray 150 can be easily determined. As a result, the direction of the object 118 relative to the detector 110 can be determined. Thus, since the center 198 of the light spot 156 on the right optical sensor 112 is shifted to the right side (that is, the higher column number side), the object 118 is located on the right side off the center from the z axis. Can be determined.

さらに、上記概説の通り、ビームウェストwを評価することによって、物体118の縦方向座標が決定されるようになっていてもよい。これにより、一例として、ビームウェストは、上述の関係のうちの1つまたは複数、具体的にはガウス関係に応じて、縦方向座標に依存していてもよい。図5に示すように、伝搬方向194が光軸またはz座標に平行でない場合、物体118の縦方向座標は、伝搬軸196に沿った座標であってもよい。たとえば、中心198の座標を比較することによって、伝搬軸196を容易に決定可能であり、また、z軸と伝搬軸196との間の角度関係が既知であるため、座標変換を容易に行うことができる。したがって、一般的には、1つまたは複数の光学センサ112の画素数を評価することにより、物体118の位置が決定されるようになっていてもよい。さらに、光学センサ112それぞれを用いて物体118の画像を生成可能であるとともに、物体118ならびに/または物体118の1つもしくは複数の点の縦方向座標が既知であることから、物体118の3次元画像を生成することができる。 Furthermore, as outlined above, the longitudinal coordinates of the object 118 may be determined by evaluating the beam waist w 0 . Thereby, by way of example, the beam waist may depend on the longitudinal coordinates according to one or more of the above relationships, specifically a Gaussian relationship. As shown in FIG. 5, when the propagation direction 194 is not parallel to the optical axis or the z-coordinate, the longitudinal coordinate of the object 118 may be a coordinate along the propagation axis 196. For example, by comparing the coordinates of the center 198, the propagation axis 196 can be easily determined, and the angular relationship between the z axis and the propagation axis 196 is known, so that coordinate conversion can be easily performed. Can do. Therefore, in general, the position of the object 118 may be determined by evaluating the number of pixels of the one or more optical sensors 112. Furthermore, each of the optical sensors 112 can be used to generate an image of the object 118 and the longitudinal coordinates of the object 118 and / or one or more points of the object 118 are known, so An image can be generated.

上記概説の通り、光線150により照射された光学センサ112の画素の数Nの計数は、画素154の強度分布を評価するための1つの選択肢である。この追加または代替として、評価装置126は、図8〜図13に関して以下に説明するように、強度分布を近似した少なくとも1つの強度分布関数を決定するように構成されていてもよい。したがって、評価装置126は、縦方向座標と強度分布関数および/または該強度分布関数から導出される少なくとも1つのパラメータとの間の所定の関係を用いることにより、物体118の縦方向座標を決定するように構成されていてもよい。一例として、強度分布関数は、図8〜図13に関して以下に説明する通り、光線150のビーム形状関数であってもよい。強度分布関数は具体的に、光学センサ112の画素154の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含んでいてもよい。   As outlined above, counting the number N of pixels of the optical sensor 112 illuminated by the light beam 150 is one option for evaluating the intensity distribution of the pixels 154. As an addition or alternative, the evaluation device 126 may be configured to determine at least one intensity distribution function approximating the intensity distribution, as described below with respect to FIGS. Accordingly, the evaluation device 126 determines the longitudinal coordinates of the object 118 by using a predetermined relationship between the longitudinal coordinates and the intensity distribution function and / or at least one parameter derived from the intensity distribution function. It may be configured as follows. As an example, the intensity distribution function may be a beam shape function of light ray 150, as described below with respect to FIGS. Specifically, the intensity distribution function may include a two-dimensional or three-dimensional mathematical function that approximates the intensity information included in at least a part of the pixel 154 of the optical sensor 112.

図8〜図13は、マトリクス152の画素154の強度分布の強度分布関数を決定する例示的な実施形態を示した図である。これらの実施形態においては、一例として、適当なフィッティングアルゴリズムを用いることにより、2次元の関数が決定される。ここで、図8〜図13においては、水平軸上の各画素の識別子pの関数として、垂直軸上の強度値I(任意単位)を示すことにより、強度分布を与えている。一例としては、光スポット156の中心を通る線等、図2AのA−A線に沿った画素154を示すとともに、それぞれの垂直座標pで識別するようにしてもよい。同様に、評価は、図3Bの図中のA−A水平線で示すように、図3Aおよび図B中の光学センサ112それぞれについて実施するようにしてもよい。   FIGS. 8-13 illustrate exemplary embodiments for determining the intensity distribution function of the intensity distribution of the pixels 154 of the matrix 152. In these embodiments, as an example, a two-dimensional function is determined by using an appropriate fitting algorithm. Here, in FIGS. 8 to 13, the intensity distribution is given by showing the intensity value I (arbitrary unit) on the vertical axis as a function of the identifier p of each pixel on the horizontal axis. As an example, the pixel 154 along the line AA in FIG. 2A such as a line passing through the center of the light spot 156 may be shown and identified by the respective vertical coordinates p. Similarly, the evaluation may be performed for each of the optical sensors 112 in FIG. 3A and FIG. B, as indicated by the AA horizontal line in FIG. 3B.

図8〜図13は、単一の光学センサ112によって生成された強度分布の例示的な実施形態を示しており、一連の画素154の強度を棒状に示している。ただし、A−A線に沿って強度分布を評価する代わりに、3次元強度分布関数の使用等によって、マトリクス152のすべての画素154を評価する3次元評価等、他の種類の評価も実現可能である。さらに、単一の光学センサ112またはその一部の単一のマトリクス152を評価する代わりに、センサスタック148の光学センサ112等、2つ以上の光学センサ112を評価するようにしてもよい。   FIGS. 8-13 show an exemplary embodiment of the intensity distribution generated by a single optical sensor 112, showing the intensity of a series of pixels 154 in a bar shape. However, instead of evaluating the intensity distribution along the AA line, other types of evaluation such as a three-dimensional evaluation for evaluating all the pixels 154 of the matrix 152 can be realized by using a three-dimensional intensity distribution function. It is. Further, instead of evaluating a single optical sensor 112 or a single matrix 152 of a portion thereof, more than one optical sensor 112 may be evaluated, such as optical sensor 112 of sensor stack 148.

上記概説の通り、図8〜図13には、画素154の強度を棒状に示している。評価装置126は、これらの図において実線として示す強度分布関数を決定するように構成されていてもよい。上記概説の通り、強度分布関数の決定は、1つまたは複数のフィッティングアルゴリズムを用いることにより、たとえば実際の強度分布に対して1つまたは複数の所定のフィッティング関数をフィッティングすることによって行われるようになっていてもよい。一例としては、上記概説の通り、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数、これら関数のうちの1つもしくは複数を含む少なくとも1つの導関数、少なくとも1つの線形結合、もしくは少なくとも1つの積、から成る群から選択される1つまたは複数の数学関数等、1つまたは複数の数学関数を使用するようにしてもよい。したがって、単一の数学関数または2つ以上の同一、類似、もしくは非同一数学関数の組み合わせをフィッティング関数として使用し、実際の強度分布にフィッティングすることによって、これらフィッティング関数の1つまたは複数のパラメータの適応等により、強度分布関数を生成するようにしてもよい。   As outlined above, in FIGS. 8 to 13, the intensity of the pixel 154 is shown in a bar shape. The evaluation device 126 may be configured to determine an intensity distribution function shown as a solid line in these figures. As outlined above, the determination of the intensity distribution function is performed by using one or more fitting algorithms, for example by fitting one or more predetermined fitting functions to the actual intensity distribution. It may be. As an example, as outlined above, bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function, one of these functions Or use one or more mathematical functions, such as one or more mathematical functions selected from the group consisting of at least one derivative comprising a plurality, at least one linear combination, or at least one product. May be. Accordingly, one or more parameters of these fitting functions can be obtained by using a single mathematical function or a combination of two or more identical, similar or non-identical mathematical functions as a fitting function and fitting to the actual intensity distribution. The intensity distribution function may be generated by adapting the above.

これにより、一例として、図8は、16画素で測定したガウスビームを展開したものである。強度分布関数を表すフィッティングガウス関数は、実線としてプロットしている。図9は、2つ以上の光線150が存在する場合にも評価を実施可能であることを示しており、2つ以上の光スポット156が生成されている。したがって、図9は、16画素で測定した2つのガウスビームを展開したものである。図9において、2つの強度分布関数を表すフィッティングガウス関数は、実線としてプロットしている。   Thus, as an example, FIG. 8 is a developed Gaussian beam measured at 16 pixels. The fitting Gaussian function representing the intensity distribution function is plotted as a solid line. FIG. 9 shows that the evaluation can be performed even when two or more light beams 150 are present, and two or more light spots 156 are generated. Therefore, FIG. 9 is a development of two Gaussian beams measured at 16 pixels. In FIG. 9, fitting Gaussian functions representing two intensity distribution functions are plotted as solid lines.

上記した照射画素の計数の場合について、強度分布をさらに評価するようにしてもよい。このため、フィッティング数学関数から、1つまたは複数のパラメータが決定されるようになっていてもよい。したがって、上記式(2)および式(3)で示すように、図8のフィッティングガウス関数または図9のフィッティングガウス関数それぞれから、1つまたは複数のビームウェストwが決定されるようになっていてもよい。ビームウェストは、光スポット156の直径または等価直径の尺度として使用するようにしてもよい。この追加または代替として、他のパラメータを導出するようにしてもよい。   The intensity distribution may be further evaluated for the above-described case of counting irradiated pixels. Thus, one or more parameters may be determined from the fitting mathematical function. Therefore, as shown in the above equations (2) and (3), one or a plurality of beam waists w are determined from the fitting Gaussian function of FIG. 8 or the fitting Gaussian function of FIG. Also good. The beam waist may be used as a measure of the diameter or equivalent diameter of the light spot 156. In addition to or as an alternative, other parameters may be derived.

導出したパラメータのうちの1つまたは複数を用いて、図2A、図2B、図3A〜図3C、または図5に関する上記説明の通り、物体118の少なくとも1つの縦方向座標が決定されるようになっていてもよい。これにより、一例としては、上記方程式(3)を用いることにより、物体118の縦方向座標が決定されるようになっていてもよい。さらには、上記概説の通り、センサスタック148を使用するようにしてもよい。図8もしくは図9に示す評価または強度分布関数を決定するその他任意の種類の評価は、センサスタック148の光学センサ112のうちの2つ以上あるいはすべてに適用可能である。これにより、一例として、図8または図9に示す評価は、スタックの光学センサ112それぞれに対して実施することにより、光学センサ112それぞれのビーム径またはビーム径を示す尺度を導出するようにしてもよい。これにより、3次元画像が生成および評価されるようになっていてもよく、図3Aおよび図3Bに関して概説した通り、曖昧さが解消されるようになっていてもよい。さらには、単色評価のほか、図3Cに関して説明した多色評価を実施するようにしてもよい。   Using one or more of the derived parameters, at least one longitudinal coordinate of the object 118 is determined as described above with respect to FIG. 2A, FIG. 2B, FIG. 3A-3C, or FIG. It may be. Thereby, as an example, the vertical coordinate of the object 118 may be determined by using the equation (3). Furthermore, as outlined above, the sensor stack 148 may be used. The evaluation shown in FIG. 8 or 9 or any other type of evaluation that determines the intensity distribution function is applicable to two or more or all of the optical sensors 112 of the sensor stack 148. Accordingly, as an example, the evaluation shown in FIG. 8 or FIG. 9 is performed for each optical sensor 112 in the stack, so that the beam diameter of each optical sensor 112 or a scale indicating the beam diameter is derived. Good. This may allow a three-dimensional image to be generated and evaluated, and may allow ambiguity to be resolved as outlined with respect to FIGS. 3A and 3B. Furthermore, in addition to the single color evaluation, the multicolor evaluation described with reference to FIG. 3C may be performed.

図10〜図13には、評価がガウス強度分布およびガウス強度分布関数に限定されないことを示した例示的な実施形態を示している。したがって、図10は、16画素で測定した正方形物体を展開したものである。この場合も、強度分布を示す測定画素電流は、棒状にプロットしている。また、強度分布にフィッティングして、ビーム形状関数またはフィッティングエッジ形状関数を与える強度分布関数は、実線として示している。図10の本実施形態においては、一例として、たとえば伝達装置136によって光学センサ112上に結像された正方形物体118に焦点が合っているため、鋭いエッジが生成されている。図11〜図13においては、物体118が焦点から外れていっているため、ぼやけたエッジが生成されている。したがって、図11は、わずかに焦点から外れた図10の正方形物体118の強度分布を示している。図12においては、正方形物体118が焦点から外れているため、エッジがぼやけてきている。図13においては、正方形物体118が焦点からさらに外れているため、エッジがさらにぼやけるとともに、強度分布全体がぼやけた形状となっている。一例として、図10〜図13は、焦点面からの距離が異なるセンサスタック148の異なる光学センサ112により生成された画像であってもよい。この追加または代替として、図10〜図13の画像は、物体118を光軸142に沿って移動させることにより強度分布を変化させて生成されたものであってもよい。伝達装置136の結像特性が一般的に周知であるとともに、ビーム伝搬特性および結像が標準的な光学的方法により計算可能であることから、物体118の位置または物体118の少なくとも1つの縦方向座標は、ガウス光線に関して上記した方程式(3)を使用する場合と同様に、強度分布関数を評価することにより決定されるようになっていてもよく、当業者が把握する通りのことである。   FIGS. 10-13 illustrate exemplary embodiments that illustrate that the evaluation is not limited to Gaussian intensity distributions and Gaussian intensity distribution functions. Accordingly, FIG. 10 is a development of a square object measured with 16 pixels. Also in this case, the measurement pixel current indicating the intensity distribution is plotted in a bar shape. An intensity distribution function that fits the intensity distribution to give a beam shape function or a fitting edge shape function is shown as a solid line. In the present embodiment of FIG. 10, as an example, since the square object 118 imaged on the optical sensor 112 by the transmission device 136 is in focus, a sharp edge is generated. In FIGS. 11 to 13, since the object 118 is out of focus, a blurred edge is generated. Thus, FIG. 11 shows the intensity distribution of the square object 118 of FIG. 10 slightly out of focus. In FIG. 12, since the square object 118 is out of focus, the edges are blurred. In FIG. 13, since the square object 118 is further out of focus, the edge is further blurred and the entire intensity distribution is blurred. As an example, FIGS. 10-13 may be images generated by different optical sensors 112 of sensor stacks 148 with different distances from the focal plane. Alternatively or alternatively, the images of FIGS. 10-13 may be generated by changing the intensity distribution by moving the object 118 along the optical axis 142. Since the imaging characteristics of the transmission device 136 are generally well known and the beam propagation characteristics and imaging can be calculated by standard optical methods, the position of the object 118 or at least one longitudinal direction of the object 118 The coordinates may be determined by evaluating the intensity distribution function, as is the case for those skilled in the art, as in the case of using equation (3) above for Gaussian rays.

図6には、光照射野カメラとして使用する本発明に係る検出器110の模式的な構成を示している。基本的に、図6に示す構成は、図1に示す実施形態または本明細書に示すその他任意の実施形態に対応していてもよい。検出器110は、画素化センサとも称する光学センサ112のセンサスタック148を備えており、具体的には透明であってもよい。一例としては、有機太陽電池、具体的にはsDSC等、画素化された有機光学センサを使用するようにしてもよい。また、検出器110は、物体118を結像するように構成された少なくとも1つのレンズ138またはレンズ系等の少なくとも1つの伝達装置136を備えていてもよい。さらに、本実施形態または他の実施形態において、検出器110は、CCDおよび/またはCMOS撮像装置等の少なくとも1つの撮像装置196を備えていてもよい。   FIG. 6 shows a schematic configuration of the detector 110 according to the present invention used as a light irradiation field camera. Basically, the configuration shown in FIG. 6 may correspond to the embodiment shown in FIG. 1 or any other embodiment shown herein. The detector 110 includes a sensor stack 148 of an optical sensor 112, which is also referred to as a pixelated sensor, and may be specifically transparent. As an example, a pixelated organic optical sensor such as an organic solar cell, specifically sDSC may be used. The detector 110 may also include at least one transmission device 136 such as at least one lens 138 or lens system configured to image the object 118. Further, in this or other embodiments, the detector 110 may include at least one imaging device 196 such as a CCD and / or CMOS imaging device.

上記概説の通り、本明細書に示す実施形態の検出器110は、光照射野カメラとしての作用に適している。したがって、図6においてA、B、およびCの記号で示すさまざまな物体118またはビーコンデバイス116から伝搬する光線150は、伝達装置136によって集束され、図6においてA’、B’、およびC’で示す対応像となる。光学センサ112のスタック148を用いることにより、3次元画像が取得されるようになっていてもよい。したがって、具体的には光学センサ112がFiPセンサすなわちセンサ信号が光子密度によって決まるセンサの場合、光線150それぞれの焦点は、隣接する光学センサ112のセンサ信号を評価することにより決定されるようになっていてもよい。このため、スタック148のセンサ信号を評価することにより、焦点位置、拡がりパラメータ、または他のパラメータ等、さまざまな光線150のビームパラメータが決定されるようになっていてもよい。これにより、一例として、各光線150ならびに/または1つもしくは複数の関心光線150は、それぞれのビームパラメータの観点で決定されるようになっていてもよく、パラメータ表示および/またはベクトル表示で表されるようになっていてもよい。このように、伝達装置136の光学的品質および特性が一般的に既知であることから、スタック148を用いて光線150のビームパラメータが決定されるとすぐに、1つまたは複数の物体118を含む光学検出器110により取得されたシーンが簡単なビームパラメータ集合で表されるようになっていてもよい。図6に示す光照射野カメラのさらなる詳細については、上記さまざまな可能性に関する記述を参照可能である。   As outlined above, the detector 110 of the embodiment shown herein is suitable for operation as a light field camera. Accordingly, light rays 150 propagating from various objects 118 or beacon devices 116, designated A, B, and C in FIG. 6, are focused by transmission device 136 and are denoted by A ′, B ′, and C ′ in FIG. The corresponding image is shown. By using the stack 148 of the optical sensor 112, a three-dimensional image may be acquired. Therefore, specifically, when the optical sensor 112 is a FiP sensor, that is, a sensor whose sensor signal is determined by the photon density, the focal point of each ray 150 is determined by evaluating the sensor signal of the adjacent optical sensor 112. It may be. Thus, by evaluating the sensor signals of the stack 148, various beam parameters of the light beam 150, such as focus position, spread parameters, or other parameters, may be determined. Thus, by way of example, each ray 150 and / or one or more rays of interest 150 may be determined in terms of their respective beam parameters and are represented in a parameter display and / or a vector display. It may come to be. Thus, as the optical quality and characteristics of the transmission device 136 are generally known, one or more objects 118 are included as soon as the beam parameters of the light beam 150 are determined using the stack 148. The scene acquired by the optical detector 110 may be represented by a simple beam parameter set. For further details of the light field camera shown in FIG. 6, reference can be made to the above description of the various possibilities.

さらに、上記概説の通り、光学センサスタック148の光学センサ112は、波長感度が同一であってもよいし、異なっていてもよい。したがって、スタック148は、任意選択としての撮像装置196のほか、たとえば交互に2種類の光学センサ112を備えていてもよい。ここで、スタック148には、第1の種類および第2の種類の光学センサ112が設けられていてもよい。第1の種類および第2の種類の光学センサ112は具体的に、光軸142に沿って交互に配置されていてもよい。第1の種類の光学センサ112は、第1の色素により規定された第1の吸収スペクトル等、第1の吸収スペクトル等の第1のスペクトル感度を有していてもよく、第2の種類の光学センサ112は、第2の色素により規定された第2の吸収スペクトル等、第1のスペクトル感度とは異なる第2の吸収スペクトル等の第2のスペクトル感度を有していてもよい。これら2種類以上の光学センサ112のセンサ信号を評価することにより、色情報が得られる。このように、導出可能なビームパラメータに加えて、上記2種類以上の光学センサ112は、フルカラー3次元画像の導出等、付加的な色情報を導出可能であってもよい。これにより、一例としては、異なる色の光学センサ112のセンサ信号とルックアップテーブルに格納された値との比較によって、色情報が導出されるようになっていてもよい。したがって、図6の構成は、単色、フルカラー、または多色光照射野カメラとして具現化されていてもよい。   Furthermore, as outlined above, the optical sensors 112 of the optical sensor stack 148 may have the same or different wavelength sensitivity. Therefore, the stack 148 may include, for example, two types of optical sensors 112 alternately in addition to the optional imaging device 196. Here, the stack 148 may be provided with the first type and the second type of optical sensors 112. Specifically, the first type and the second type of optical sensors 112 may be alternately arranged along the optical axis 142. The first type optical sensor 112 may have a first spectral sensitivity such as a first absorption spectrum such as a first absorption spectrum defined by the first dye, The optical sensor 112 may have a second spectral sensitivity such as a second absorption spectrum different from the first spectral sensitivity, such as a second absorption spectrum defined by the second dye. By evaluating the sensor signals of these two or more types of optical sensors 112, color information can be obtained. As described above, in addition to the derivable beam parameters, the two or more types of optical sensors 112 may be capable of deriving additional color information such as deriving a full-color three-dimensional image. Thereby, as an example, the color information may be derived by comparing the sensor signal of the optical sensor 112 of a different color with the value stored in the lookup table. Accordingly, the configuration of FIG. 6 may be embodied as a single color, full color, or multicolor light field camera.

上記概説の通り、検出器110は、1つまたは複数の飛行時間型検出器をさらに備えていてもよい。この可能性を図7に示す。まず、検出器110は、センサスタック148等、上記1つまたは複数の画素化光学センサ112を含む少なくとも1つの構成要素を備える。図7に示す実施形態において、光学センサ112を含む上記少なくとも1つのユニットは、カメラ111として示している。ただし、他の実施形態も実現可能であることに留意するものとする。カメラ111の可能な構成の詳細については、図1に示す実施形態または検出器110の他の実施形態等、上記構成を参照可能である。基本的には、上記開示の検出器110の任意の構成を、図7に示す実施形態の背景において使用可能である。   As outlined above, the detector 110 may further comprise one or more time-of-flight detectors. This possibility is illustrated in FIG. First, the detector 110 includes at least one component that includes the one or more pixelated optical sensors 112, such as a sensor stack 148. In the embodiment shown in FIG. 7, the at least one unit including the optical sensor 112 is shown as a camera 111. However, it should be noted that other embodiments are possible. For details of possible configurations of the camera 111, the above-described configuration can be referred to, such as the embodiment shown in FIG. 1 or another embodiment of the detector 110. Basically, any configuration of the detector 110 disclosed above can be used in the context of the embodiment shown in FIG.

さらに、検出器110は、少なくとも1つの飛行時間型(ToF)検出器198を備える。図7に示すように、ToF検出器198は、検出器110の評価装置126に接続されていてもよいし、別個の評価装置が設けられていてもよい。上記概説の通り、ToF検出器198は、図7に記号で示すように、パルス200の放出および受信によって、検出器110と物体118との間の距離すなわち光軸142に沿ったz座標を決定するように構成されていてもよい。   In addition, the detector 110 includes at least one time-of-flight (ToF) detector 198. As shown in FIG. 7, the ToF detector 198 may be connected to the evaluation device 126 of the detector 110, or a separate evaluation device may be provided. As outlined above, the ToF detector 198 determines the distance between the detector 110 and the object 118, ie the z coordinate along the optical axis 142, by emitting and receiving a pulse 200, as symbolically shown in FIG. It may be configured to.

上記少なくとも1つの任意選択としてのToF検出器198は、カメラ111等の画素化光学センサ112を有する上記少なくとも1つの検出器とさまざまに組み合わされていてもよい。これにより、一例として、また、図7に示すように、上記少なくとも1つのカメラ111は、第1の部分ビーム経路202に配置されていてもよく、ToF検出器198は、第2の部分ビーム経路204に配置されていてもよい。部分ビーム経路202、204は、分離されていてもよく、および/または、少なくとも1つのビーム分割要素206によって結合されていてもよい。一例として、ビーム分割要素206は、半透明ミラー等の波長中立ビーム分割要素206であってもよい。この追加または代替として、波長依存性によって、異なる波長を分離可能であってもよい。図7に示す構成の代替または追加として、ToF検出器198の他の構成を使用するようにしてもよい。したがって、カメラ111およびToF検出器198は、カメラ111後方へのToF検出器198の配置等により、一直線に配置されていてもよい。この場合は、不透明な光学センサがカメラ111に設けられておらず、すべての光学センサ112が少なくとも部分的に透明であるのが好ましい。また、この代替または追加として、ToF検出器198は、カメラ111から独立して配置されていてもよく、異なる光路を結合することなく使用するようにしてもよい。さまざまな構成が実現可能である。   The at least one optional ToF detector 198 may be variously combined with the at least one detector having a pixelated optical sensor 112 such as a camera 111. Thus, by way of example and as shown in FIG. 7, the at least one camera 111 may be disposed in the first partial beam path 202 and the ToF detector 198 may be disposed in the second partial beam path. 204 may be arranged. Partial beam paths 202, 204 may be separated and / or coupled by at least one beam splitting element 206. As an example, the beam splitting element 206 may be a wavelength neutral beam splitting element 206 such as a translucent mirror. As an addition or alternative, different wavelengths may be separable due to wavelength dependence. As an alternative or addition to the configuration shown in FIG. 7, other configurations of the ToF detector 198 may be used. Therefore, the camera 111 and the ToF detector 198 may be arranged in a straight line due to the arrangement of the ToF detector 198 behind the camera 111 and the like. In this case, it is preferable that no opaque optical sensor is provided in the camera 111 and all the optical sensors 112 are at least partially transparent. As an alternative or addition, the ToF detector 198 may be arranged independently of the camera 111 and may be used without coupling different optical paths. Various configurations are possible.

上記概説の通り、ToF検出器198およびカメラ111は、曖昧さの解消、光学検出器110を使用できる気象条件の範囲の拡大、または物体118と光学検出器110との間の距離範囲の拡張等のさまざまな目的で、利益が得られるように組み合わされていてもよい。さらなる詳細については、上記説明を参照可能である。   As outlined above, ToF detector 198 and camera 111 can be used to resolve ambiguity, expand the range of weather conditions in which optical detector 110 can be used, or extend the range of distances between object 118 and optical detector 110, etc. For various purposes, it may be combined for profit. For further details, reference may be made to the above description.

110 検出器
111 カメラ
112 光学センサ
114 検出システム
116 ビーコンデバイス
118 物体
120 マンマシンインターフェース
122 娯楽装置
124 追跡システム
126 評価装置
128 コネクタ
130 ハウジング
132 制御装置
134 ユーザ
136 伝達装置
138 レンズ
140 開口
142 光軸
144 視野方向
146 座標系
148 センサスタック
150 光線
152 マトリクス
154 画素
156 光スポット
158 センサ表面
160 電流測定装置
162 スイッチ
164 データメモリ
166 境界線
168 非照射画素
170 照射画素
172 追跡制御装置
174 焦点
176 機械
178 基板
180 第1の電極
182 第1の電極ストライプ
184 感光層
186 接触エリア
188 第2の電極
190 第2の電極ストライプ
192 接触エリア
194 伝搬方向
196 伝搬軸
198 中心
196 撮像装置
198 飛行時間型検出器
200 パルス
202 第1の部分ビーム経路
204 第2の部分ビーム経路
206 ビーム分割要素
DESCRIPTION OF SYMBOLS 110 Detector 111 Camera 112 Optical sensor 114 Detection system 116 Beacon device 118 Object 120 Man-machine interface 122 Recreational device 124 Tracking system 126 Evaluation device 128 Connector 130 Housing 132 Control device 134 User 136 Transmission device 138 Lens 140 Aperture 142 Optical axis 144 Field of view Direction 146 Coordinate system 148 Sensor stack 150 Ray 152 Matrix 154 Pixel 156 Light spot 158 Sensor surface 160 Current measuring device 162 Switch 164 Data memory 166 Boundary line 168 Non-irradiated pixel 170 Irradiated pixel 172 Tracking controller 174 Focus 176 Machine 178 Substrate 180 Substrate 180 1 electrode 182 first electrode stripe 184 photosensitive layer 186 contact area 188 second electrode 1 90 Second electrode stripe 192 Contact area 194 Propagation direction 196 Propagation axis 198 Center 196 Imaging device 198 Time-of-flight detector 200 Pulse 202 First partial beam path 204 Second partial beam path 206 Beam splitting element

Claims (21)

少なくとも1つの物体(118)の位置を決定する検出器(110)であって、
少なくとも1つの光学センサ(112)であり、前記物体(118)から該検出器(110)へと進む光線(150)を検出するように構成され、画素(154)の少なくとも1つのマトリクス(152)を有する、光学センサ(112)と、
少なくとも1つの評価装置(126)であり、前記光線(150)により照射された前記光学センサ(112)の画素(154)の強度分布を決定するように構成され、前記強度分布を用いることにより、前記物体(118)の少なくとも1つの縦方向座標を決定するようにさらに構成された、評価装置(126)と、
を備えた検出器(110)。
A detector (110) for determining the position of at least one object (118), comprising:
At least one optical sensor (112) configured to detect light rays (150) traveling from the object (118) to the detector (110), and at least one matrix (152) of pixels (154); An optical sensor (112) comprising:
At least one evaluation device (126), configured to determine an intensity distribution of a pixel (154) of the optical sensor (112) illuminated by the light beam (150), and using the intensity distribution; An evaluation device (126) further configured to determine at least one longitudinal coordinate of the object (118);
A detector (110) comprising:
前記評価装置(126)が、前記強度分布と前記縦方向座標との間の所定の関係を用いることにより、前記物体(118)の前記縦方向座標を決定するように構成された、
請求項1に記載の検出器(110)。
The evaluation device (126) is configured to determine the longitudinal coordinates of the object (118) by using a predetermined relationship between the intensity distribution and the longitudinal coordinates;
The detector (110) of claim 1.
前記評価装置(126)が、前記強度分布を近似した少なくとも1つの強度分布関数を決定するように構成された、
請求項1または2に記載の検出器(110)。
The evaluation device (126) is configured to determine at least one intensity distribution function approximating the intensity distribution;
The detector (110) according to claim 1 or 2.
前記評価装置(126)が、縦方向座標と前記強度分布関数および/または該強度分布関数から導出された少なくとも1つのパラメータとの間の所定の関係を用いることにより、前記物体(118)の前記縦方向座標を決定するように構成された、
請求項3に記載の検出器(110)。
The evaluation device (126) uses the predetermined relationship between the longitudinal coordinates and the intensity distribution function and / or at least one parameter derived from the intensity distribution function, thereby allowing the object (118) to Configured to determine longitudinal coordinates,
The detector (110) according to claim 3.
前記強度分布関数が、前記光線(150)のビーム形状関数である、
請求項3または4に記載の検出器(110)。
The intensity distribution function is a beam shape function of the ray (150);
Detector (110) according to claim 3 or 4.
前記強度分布関数が、前記光学センサ(112)の前記画素(154)の少なくとも一部に含まれる強度情報を近似した2次元または3次元の数学関数を含む、
請求項3〜5のいずれか一項に記載の検出器(110)。
The intensity distribution function includes a two-dimensional or three-dimensional mathematical function approximating intensity information included in at least a portion of the pixel (154) of the optical sensor (112);
Detector (110) according to any one of claims 3-5.
前記2次元または3次元の数学関数が、釣鐘型関数、ガウス分布関数、ベッセル関数、エルミート−ガウス関数、ラゲール−ガウス関数、ローレンツ分布関数、二項分布関数、ポアソン分布関数、これら関数のうちの1つまたは複数を含む少なくとも1つの導関数、少なくとも1つの線形結合、または少なくとも1つの積、から成る群から選択される少なくとも1つの数学関数を含む、
請求項6に記載の検出器(110)。
The two-dimensional or three-dimensional mathematical function is a bell-shaped function, Gaussian distribution function, Bessel function, Hermitian-Gaussian function, Laguerre-Gaussian function, Lorentz distribution function, binomial distribution function, Poisson distribution function, Including at least one mathematical function selected from the group consisting of at least one derivative comprising one or more, at least one linear combination, or at least one product,
The detector (110) according to claim 6.
複数の平面における強度分布を決定するように構成された、
請求項1〜7のいずれか一項に記載の検出器(110)。
Configured to determine an intensity distribution in a plurality of planes;
A detector (110) according to any one of the preceding claims.
複数の光学センサ(112)を備えた、
請求項8に記載の検出器(110)。
A plurality of optical sensors (112),
The detector (110) of claim 8.
前記評価装置(126)が、光軸(142)に沿った縦方向座標の関数として、前記強度分布の変化を評価することにより、前記物体(118)の前記縦方向座標を決定するように構成された、
請求項8または9に記載の検出器(110)。
The evaluation device (126) is configured to determine the longitudinal coordinate of the object (118) by evaluating the change in the intensity distribution as a function of the longitudinal coordinate along the optical axis (142). Was
Detector (110) according to claim 8 or 9.
前記評価装置(126)が、それぞれ前記平面のうちの1つにおける前記強度分布を近似した複数の強度分布関数を決定するように構成され、前記複数の強度分布関数から、前記物体(118)の前記縦方向座標を導出するようにさらに構成された、
請求項8〜10のいずれか一項に記載の検出器(110)。
The evaluation device (126) is configured to determine a plurality of intensity distribution functions each approximating the intensity distribution in one of the planes, and from the plurality of intensity distribution functions, the object (118) Further configured to derive the longitudinal coordinates;
The detector (110) according to any one of claims 8 to 10.
前記強度分布関数がそれぞれ、前記各平面における前記光線(150)のビーム形状関数である、
請求項11に記載の検出器(110)。
Each of the intensity distribution functions is a beam shape function of the ray (150) in each plane.
The detector (110) of claim 11.
前記評価装置(126)が、各強度分布関数から少なくとも1つのビームパラメータを導出するように構成された、
請求項11または12に記載の検出器(110)。
The evaluator (126) is configured to derive at least one beam parameter from each intensity distribution function;
Detector (110) according to claim 11 or 12.
前記評価装置(126)が、前記光軸(142)に沿った縦方向座標の関数として、前記少なくとも1つのビームパラメータの変化を評価することにより、前記物体(118)の前記縦方向座標を決定するように構成された、
請求項13に記載の検出器(110)。
The evaluator (126) determines the longitudinal coordinates of the object (118) by evaluating a change in the at least one beam parameter as a function of longitudinal coordinates along the optical axis (142). Configured to
The detector (110) of claim 13.
少なくとも1つの物体(118)の位置を決定する検出システム(114)であって、
請求項1〜14のいずれか一項に記載の少なくとも1つの検出器(110)を備え、少なくとも1つの光線(150)を前記検出器(110)へと案内するように構成された少なくとも1つのビーコンデバイス(116)をさらに備え、前記ビーコンデバイス(116)が、前記物体(118)への取り付け、前記物体(118)による保持、および前記物体(118)への組み込みのうちの少なくとも1つが可能である、
検出システム(114)。
A detection system (114) for determining the position of at least one object (118), comprising:
15. At least one detector (110) according to any one of claims 1 to 14, wherein the at least one detector (110) is configured to guide at least one light beam (150) to the detector (110). A beacon device (116), wherein the beacon device (116) is capable of at least one of attachment to the object (118), retention by the object (118), and incorporation into the object (118); Is,
Detection system (114).
ユーザ(134)と機械(176)との間で少なくとも1つの情報を交換するマンマシンインターフェース(120)であって、
請求項15に記載の少なくとも1つの検出システム(114)を備え、前記少なくとも1つのビーコンデバイス(116)が、前記ユーザ(134)への直接的または間接的な取り付けおよび前記ユーザ(134)による保持のうちの少なくとも1つが行われるように構成されており、該マンマシンインターフェース(120)が、前記検出システム(114)によって前記ユーザ(134)の少なくとも1つの位置を決定するように設計されるとともに、少なくとも1つの情報を前記位置に割り当てるように設計された、
マンマシンインターフェース(120)。
A man-machine interface (120) for exchanging at least one piece of information between a user (134) and a machine (176);
16. At least one detection system (114) according to claim 15, wherein the at least one beacon device (116) is attached directly or indirectly to the user (134) and held by the user (134). And the man-machine interface (120) is designed to determine at least one position of the user (134) by the detection system (114) and Designed to assign at least one piece of information to the location,
Man-machine interface (120).
少なくとも1つの娯楽機能を実行する娯楽装置(122)であって、
請求項16に記載の少なくとも1つのマンマシンインターフェース(120)を備え、前記マンマシンインターフェース(120)によって、プレーヤが少なくとも1つの情報を入力できるように設計され、前記情報に従って前記娯楽機能を変更するように設計された、
娯楽装置(122)。
An entertainment device (122) that performs at least one entertainment function comprising:
17. At least one man-machine interface (120) according to claim 16, wherein the man-machine interface (120) is designed to allow a player to input at least one information and to change the entertainment function according to the information Designed to,
Entertainment device (122).
少なくとも1つの可動物体(118)の位置を追跡する追跡システム(124)であって、
請求項15に記載の少なくとも1つの検出システム(114)を備え、少なくとも1つの追跡制御装置(172)をさらに備え、前記追跡制御装置(172)が、特定の時点における前記物体(118)の一連の位置を追跡するように構成された、
追跡システム(124)。
A tracking system (124) for tracking the position of at least one movable object (118),
An at least one detection system (114) according to claim 15, further comprising at least one tracking controller (172), wherein the tracking controller (172) is a sequence of the object (118) at a particular point in time. Configured to track the location of the
Tracking system (124).
少なくとも1つの物体(118)を撮像するカメラ(111)であって、
請求項1〜14のいずれか一項に記載の少なくとも1つの検出器(110)を備えた、カメラ(111)。
A camera (111) for imaging at least one object (118),
A camera (111) comprising at least one detector (110) according to any one of the preceding claims.
少なくとも1つの物体(118)の位置を決定する方法であって、
前記方法は、少なくとも1つの検出ステップおよび少なくとも1つの評価ステップを含み、
前記少なくとも1つの検出ステップでは、前記物体(118)から検出器(110)へと進む少なくとも1つの光線(150)が、前記検出器(110)の少なくとも1つの光学センサ(112)により検出され、前記少なくとも1つの光学センサ(112)が、画素(154)の少なくとも1つのマトリクス(152)を有し、
前記少なくとも1つの評価ステップでは、前記光線(150)により照射された前記光学センサ(112)の画素(154)の強度分布が決定され、前記強度分布を用いることにより、前記物体(118)の少なくとも1つの縦方向座標が決定される、
方法。
A method for determining the position of at least one object (118) comprising:
The method includes at least one detection step and at least one evaluation step;
In the at least one detection step, at least one light beam (150) traveling from the object (118) to a detector (110) is detected by at least one optical sensor (112) of the detector (110); The at least one optical sensor (112) comprises at least one matrix (152) of pixels (154);
In the at least one evaluation step, an intensity distribution of the pixel (154) of the optical sensor (112) irradiated by the light beam (150) is determined, and by using the intensity distribution, at least the object (118) is determined. One vertical coordinate is determined,
Method.
請求項1〜14のいずれか一項に記載の検出器(110)の使用であって、交通技術における位置測定、娯楽用途、セキュリティ用途、安全用途、マンマシンインターフェース(120)用途、追跡用途、写真撮影用途、少なくとも1つの飛行時間型検出器(198)との組み合わせによる使用、から成る群から選択される使用目的での使用。   Use of a detector (110) according to any one of claims 1 to 14, comprising location measurement in traffic technology, entertainment application, security application, safety application, man-machine interface (120) application, tracking application, Use for a purpose selected from the group consisting of photography applications, use in combination with at least one time-of-flight detector (198).
JP2016518930A 2013-06-13 2014-06-05 Detector for optically detecting at least one object Pending JP2016529473A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13171901 2013-06-13
EP13171901.5 2013-06-13
DE102014006280 2014-03-12
DE102014006280.5 2014-03-12
PCT/EP2014/061682 WO2014198623A1 (en) 2013-06-13 2014-06-05 Detector for optically detecting at least one object

Publications (1)

Publication Number Publication Date
JP2016529473A true JP2016529473A (en) 2016-09-23

Family

ID=50884924

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016518930A Pending JP2016529473A (en) 2013-06-13 2014-06-05 Detector for optically detecting at least one object
JP2016518934A Pending JP2016529474A (en) 2013-06-13 2014-06-05 Detector for optically detecting at least one object
JP2020005951A Active JP6854366B2 (en) 2013-06-13 2020-01-17 Detector that optically detects at least one object

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016518934A Pending JP2016529474A (en) 2013-06-13 2014-06-05 Detector for optically detecting at least one object
JP2020005951A Active JP6854366B2 (en) 2013-06-13 2020-01-17 Detector that optically detects at least one object

Country Status (7)

Country Link
US (4) US9829564B2 (en)
EP (2) EP3008485A1 (en)
JP (3) JP2016529473A (en)
KR (2) KR102322548B1 (en)
CN (4) CN109521397B (en)
AU (2) AU2014280338B2 (en)
WO (2) WO2014198623A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020525936A (en) * 2017-06-26 2020-08-27 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for determining the position of at least one object
US11980250B2 (en) 2018-01-24 2024-05-14 High-Low Heel, Llc Shoe with a high heel to low heel conversion

Families Citing this family (221)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012220787A1 (en) * 2012-11-14 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for producing a computer program product for a mobility device and mobility device
US9389315B2 (en) 2012-12-19 2016-07-12 Basf Se Detector comprising a transversal optical sensor for detecting a transversal position of a light beam from an object and a longitudinal optical sensor sensing a beam cross-section of the light beam in a sensor region
CN109521397B (en) 2013-06-13 2023-03-28 巴斯夫欧洲公司 Detector for optically detecting at least one object
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
AU2014280334B2 (en) 2013-06-13 2018-02-01 Basf Se Optical detector and method for manufacturing the same
KR20160044009A (en) 2013-08-19 2016-04-22 바스프 에스이 Detector for determining a position of at least one object
WO2015024871A1 (en) 2013-08-19 2015-02-26 Basf Se Optical detector
US20160146600A1 (en) * 2013-11-22 2016-05-26 Shervin Taghavi Larigani Novel technique of displacement and rotation measurement
EP3632777A1 (en) 2014-05-16 2020-04-08 Divergent Technologies, Inc. Modular formed nodes for vehicle chassis and their methods of use
WO2016003982A1 (en) 2014-07-02 2016-01-07 Divergent Technologies, Inc. Systems and methods for fabricating joint members
KR102397527B1 (en) 2014-07-08 2022-05-13 바스프 에스이 Detector for determining a position of at least one object
KR102452393B1 (en) 2014-09-29 2022-10-11 바스프 에스이 Detector for optically determining a position of at least one object
WO2016092451A1 (en) 2014-12-09 2016-06-16 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10013756B2 (en) * 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
FR3036187B1 (en) * 2015-05-12 2019-09-13 Commissariat A L'energie Atomique Et Aux Energies Alternatives METHOD OF CORRECTING A FLUORESCENCE IMAGE
JP6491537B2 (en) * 2015-05-20 2019-03-27 日本放送協会 Imaging device
CN105044538A (en) * 2015-06-25 2015-11-11 无锡埃姆维工业控制设备有限公司 Wire harness industry online machine visual mistake-proofing system and method
JP6877418B2 (en) 2015-07-17 2021-05-26 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for optically detecting at least one object
US10379028B2 (en) * 2015-07-30 2019-08-13 Philips Photonics Gmbh Laser sensor for multi parameter detection
JP2018523831A (en) * 2015-08-21 2018-08-23 アドコール コーポレイション Optical profiler and method of using the same
US9557741B1 (en) * 2015-08-24 2017-01-31 Ford Global Technologies, Llc System and method for autonomous valet parking using plenoptic cameras
CN108141579B (en) 2015-09-14 2020-06-12 特里纳米克斯股份有限公司 3D camera
US20170124767A1 (en) * 2015-11-02 2017-05-04 Scott Everitt Foust Dynamic Surfaces for Virtual Reality Applications
KR20180086198A (en) 2015-11-25 2018-07-30 트리나미엑스 게엠베하 A detector for optically detecting at least one object
US10427038B2 (en) 2016-01-21 2019-10-01 Toccata Gaming International, Llc Game console incorporating beam-splitter display and real world objects
DE102016101681A1 (en) * 2016-01-29 2017-08-03 Pipetronics Gmbh & Co. Kg Method and device for metrological detection of a line system
US10188468B2 (en) * 2016-02-25 2019-01-29 Synaptive Medical (Barbados) Inc. Focused based depth map acquisition
DE102016106121A1 (en) * 2016-04-04 2017-10-05 Carl Zeiss Ag Method and device for determining parameters for spectacle fitting
US20190157470A1 (en) 2016-04-06 2019-05-23 Trinamix Gmbh Detector for optically detecting at least one object
EP3449282A1 (en) 2016-04-28 2019-03-06 trinamiX GmbH Detector for optically detecting at least one object
KR20190002489A (en) 2016-04-28 2019-01-08 트리나미엑스 게엠베하 A detector for optically detecting at least one object
KR101866764B1 (en) * 2016-05-13 2018-06-18 충남대학교산학협력단 Range Image Sensor comprised of Combined Pixel
CN109311070A (en) 2016-06-09 2019-02-05 戴弗根特技术有限公司 The system and method designed and manufactured for arc-shaped workpiece and node
US10417779B2 (en) * 2016-06-29 2019-09-17 United States Of America As Represented By The Administrator Of Nasa Methods and systems for processing plenoptic images
US10238976B2 (en) * 2016-07-07 2019-03-26 Disney Enterprises, Inc. Location-based experience with interactive merchandise
DE102016213344A1 (en) * 2016-07-21 2018-01-25 Robert Bosch Gmbh Optical arrangement for a LiDAR system, LiDAR system and working device
WO2018019922A1 (en) 2016-07-29 2018-02-01 Trinamix Gmbh Detector for an optical detection of at least one object
WO2018019921A1 (en) 2016-07-29 2018-02-01 Trinamix Gmbh Optical sensor and detector for optical detection
US10890649B2 (en) 2016-08-11 2021-01-12 Qualcomm Incorporated System and method for measuring reference and returned light beams in an optical system
US10057727B2 (en) 2016-10-24 2018-08-21 General Electric Company Indoor positioning system based on motion sensing augmented with beacons
KR102431355B1 (en) 2016-10-25 2022-08-10 트리나미엑스 게엠베하 Detector for optical detection of at least one object
CN109923372B (en) 2016-10-25 2021-12-21 特里纳米克斯股份有限公司 Infrared optical detector employing integrated filter
US10948567B2 (en) * 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
US9638800B1 (en) 2016-11-22 2017-05-02 4Sense, Inc. Passive tracking system
WO2018096083A1 (en) 2016-11-25 2018-05-31 Trinamix Gmbh Optical detector comprising at least one optical waveguide
CN106643498B (en) * 2016-12-27 2019-05-24 陕西科技大学 A kind of device and method of accurate detection object plane projection
US10369988B2 (en) 2017-01-13 2019-08-06 Ford Global Technologies, Llc Autonomous parking of vehicles inperpendicular parking spots
US20190369216A1 (en) * 2017-01-24 2019-12-05 Analog Devices, Inc. Providing dynamic field of view for light received from a dynamic position
US10560983B2 (en) * 2017-01-26 2020-02-11 Ford Global Technologies, Llc Self-defrosting sensor
US11155005B2 (en) 2017-02-10 2021-10-26 Divergent Technologies, Inc. 3D-printed tooling and methods for producing same
US10759090B2 (en) 2017-02-10 2020-09-01 Divergent Technologies, Inc. Methods for producing panels using 3D-printed tooling shells
US10419741B2 (en) * 2017-02-24 2019-09-17 Analog Devices Global Unlimited Company Systems and methods for compression of three dimensional depth sensing
US10317915B2 (en) * 2017-02-28 2019-06-11 Gopro, Inc. Autonomous tracking based on radius
CN110392844B (en) 2017-03-16 2024-03-12 特里纳米克斯股份有限公司 Detector for optically detecting at least one object
WO2018185083A2 (en) * 2017-04-04 2018-10-11 pmdtechnologies ag Time-of-flight camera
CN110770555A (en) 2017-04-20 2020-02-07 特里纳米克斯股份有限公司 Optical detector
US10898968B2 (en) 2017-04-28 2021-01-26 Divergent Technologies, Inc. Scatter reduction in additive manufacturing
WO2018222823A1 (en) * 2017-06-01 2018-12-06 Gooee Limited Monitoring system
CN107147441B (en) * 2017-05-02 2019-06-18 中国人民解放军信息工程大学 The detection method and device of signal
US10703419B2 (en) 2017-05-19 2020-07-07 Divergent Technologies, Inc. Apparatus and methods for joining panels
US11358337B2 (en) 2017-05-24 2022-06-14 Divergent Technologies, Inc. Robotic assembly of transport structures using on-site additive manufacturing
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US11123973B2 (en) 2017-06-07 2021-09-21 Divergent Technologies, Inc. Interconnected deflectable panel and node
US10919230B2 (en) 2017-06-09 2021-02-16 Divergent Technologies, Inc. Node with co-printed interconnect and methods for producing same
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10234868B2 (en) 2017-06-16 2019-03-19 Ford Global Technologies, Llc Mobile device initiation of vehicle remote-parking
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10781846B2 (en) 2017-06-19 2020-09-22 Divergent Technologies, Inc. 3-D-printed components including fasteners and methods for producing same
US10994876B2 (en) 2017-06-30 2021-05-04 Divergent Technologies, Inc. Automated wrapping of components in transport structures
US11022375B2 (en) 2017-07-06 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing microtube heat exchangers
US10895315B2 (en) 2017-07-07 2021-01-19 Divergent Technologies, Inc. Systems and methods for implementing node to node connections in mechanized assemblies
WO2019011803A1 (en) 2017-07-10 2019-01-17 Trinamix Gmbh Detector for optically detecting at least one object
US10751800B2 (en) 2017-07-25 2020-08-25 Divergent Technologies, Inc. Methods and apparatus for additively manufactured exoskeleton-based transport structures
US10940609B2 (en) 2017-07-25 2021-03-09 Divergent Technologies, Inc. Methods and apparatus for additively manufactured endoskeleton-based transport structures
KR102402477B1 (en) * 2017-08-04 2022-05-27 엘지이노텍 주식회사 Time of flight module
US10605285B2 (en) 2017-08-08 2020-03-31 Divergent Technologies, Inc. Systems and methods for joining node and tube structures
US10357959B2 (en) 2017-08-15 2019-07-23 Divergent Technologies, Inc. Methods and apparatus for additively manufactured identification features
KR20200040780A (en) 2017-08-28 2020-04-20 트리나미엑스 게엠베하 A detector that determines the position of at least one object
EP3676630B1 (en) 2017-08-28 2022-11-30 trinamiX GmbH Range finder for determining at least one geometric information
US11306751B2 (en) 2017-08-31 2022-04-19 Divergent Technologies, Inc. Apparatus and methods for connecting tubes in transport structures
US10960611B2 (en) 2017-09-06 2021-03-30 Divergent Technologies, Inc. Methods and apparatuses for universal interface between parts in transport structures
US11292058B2 (en) 2017-09-12 2022-04-05 Divergent Technologies, Inc. Apparatus and methods for optimization of powder removal features in additively manufactured components
EP3688410B1 (en) * 2017-09-26 2021-12-29 Trimble AB Queue of data collection tasks for surveying instrument
CN107861170B (en) * 2017-09-27 2020-02-18 深圳奥比中光科技有限公司 Laser safety control device and method
US10281921B2 (en) 2017-10-02 2019-05-07 Ford Global Technologies, Llc Autonomous parking of vehicles in perpendicular parking spots
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10814564B2 (en) 2017-10-11 2020-10-27 Divergent Technologies, Inc. Composite material inlay in additively manufactured structures
US10668816B2 (en) 2017-10-11 2020-06-02 Divergent Technologies, Inc. Solar extended range electric vehicle with panel deployment and emitter tracking
MY196626A (en) * 2017-10-17 2023-04-23 Univ Malaya Apparatus for Receiving Optical Signal
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US11786971B2 (en) 2017-11-10 2023-10-17 Divergent Technologies, Inc. Structures and methods for high volume production of complex structures using interface nodes
CN111587384A (en) 2017-11-17 2020-08-25 特里纳米克斯股份有限公司 Detector for determining a position of at least one object
US10336320B2 (en) 2017-11-22 2019-07-02 Ford Global Technologies, Llc Monitoring of communication for vehicle remote park-assist
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10926599B2 (en) 2017-12-01 2021-02-23 Divergent Technologies, Inc. Suspension systems using hydraulic dampers
US11110514B2 (en) 2017-12-14 2021-09-07 Divergent Technologies, Inc. Apparatus and methods for connecting nodes to tubes in transport structures
US11301655B2 (en) 2017-12-15 2022-04-12 Cognex Corporation Vision imaging system having a camera and dual aimer assemblies
US10832023B2 (en) 2017-12-15 2020-11-10 Cognex Corporation Dual-imaging vision system camera and method for using the same
EP3729366B1 (en) * 2017-12-20 2021-08-25 Ecole Polytechnique Federale De Lausanne (Epfl) Method of displaying an image on a see-through display
US11085473B2 (en) 2017-12-22 2021-08-10 Divergent Technologies, Inc. Methods and apparatus for forming node to panel joints
US11534828B2 (en) 2017-12-27 2022-12-27 Divergent Technologies, Inc. Assembling structures comprising 3D printed components and standardized components utilizing adhesive circuits
CN112074760A (en) * 2017-12-27 2020-12-11 ams传感器新加坡私人有限公司 Photovoltaic module and method for operating same
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US11420262B2 (en) 2018-01-31 2022-08-23 Divergent Technologies, Inc. Systems and methods for co-casting of additively manufactured interface nodes
US10751934B2 (en) 2018-02-01 2020-08-25 Divergent Technologies, Inc. Apparatus and methods for additive manufacturing with variable extruder profiles
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
EP3528004A1 (en) 2018-02-14 2019-08-21 trinamiX GmbH Detector for an optical detection of at least one object
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US11224943B2 (en) 2018-03-07 2022-01-18 Divergent Technologies, Inc. Variable beam geometry laser-based powder bed fusion
US10254163B1 (en) * 2018-03-15 2019-04-09 Kromek Group, PLC Interaction characteristics from a plurality of pixels
US11267236B2 (en) 2018-03-16 2022-03-08 Divergent Technologies, Inc. Single shear joint for node-to-node connections
US11254381B2 (en) 2018-03-19 2022-02-22 Divergent Technologies, Inc. Manufacturing cell based vehicle manufacturing system and method
US11872689B2 (en) 2018-03-19 2024-01-16 Divergent Technologies, Inc. End effector features for additively manufactured components
US11408216B2 (en) 2018-03-20 2022-08-09 Divergent Technologies, Inc. Systems and methods for co-printed or concurrently assembled hinge structures
WO2019183357A1 (en) * 2018-03-21 2019-09-26 JANUS Research Group, Inc. Systems and methods for haptic feedback in a virtual reality system
US10518480B2 (en) * 2018-04-02 2019-12-31 Nanotronics Imaging, Inc. Systems, methods, and media for artificial intelligence feedback control in additive manufacturing
US11084225B2 (en) 2018-04-02 2021-08-10 Nanotronics Imaging, Inc. Systems, methods, and media for artificial intelligence process control in additive manufacturing
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
DE102018205984A1 (en) 2018-04-19 2019-10-24 Robert Bosch Gmbh Apparatus and method for determining a position of at least one object
US11613078B2 (en) 2018-04-20 2023-03-28 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing adhesive inlet and outlet ports
US11214317B2 (en) 2018-04-24 2022-01-04 Divergent Technologies, Inc. Systems and methods for joining nodes and other structures
US11020800B2 (en) 2018-05-01 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for sealing powder holes in additively manufactured parts
US10682821B2 (en) 2018-05-01 2020-06-16 Divergent Technologies, Inc. Flexible tooling system and method for manufacturing of composite structures
US11389816B2 (en) 2018-05-09 2022-07-19 Divergent Technologies, Inc. Multi-circuit single port design in additively manufactured node
WO2019215211A1 (en) 2018-05-09 2019-11-14 Trinamix Gmbh Detector for optically detecting at least one object
KR20210008045A (en) 2018-05-09 2021-01-20 트리나미엑스 게엠베하 Method and device for determining the charge level of at least one storage unit
US20190353417A1 (en) 2018-05-15 2019-11-21 Walmart Apollo, Llc System and method for package construction
US10691104B2 (en) 2018-05-16 2020-06-23 Divergent Technologies, Inc. Additively manufacturing structures for increased spray forming resolution or increased fatigue life
JP6585230B1 (en) * 2018-05-16 2019-10-02 東芝エレベータ株式会社 Passenger conveyor
US11590727B2 (en) 2018-05-21 2023-02-28 Divergent Technologies, Inc. Custom additively manufactured core structures
US11441586B2 (en) 2018-05-25 2022-09-13 Divergent Technologies, Inc. Apparatus for injecting fluids in node based connections
US11035511B2 (en) 2018-06-05 2021-06-15 Divergent Technologies, Inc. Quick-change end effector
US11292056B2 (en) 2018-07-06 2022-04-05 Divergent Technologies, Inc. Cold-spray nozzle
US11269311B2 (en) 2018-07-26 2022-03-08 Divergent Technologies, Inc. Spray forming structural joints
WO2020030646A1 (en) 2018-08-07 2020-02-13 Trinamix Gmbh Device and method for optically surveilling at least one area
US11081516B2 (en) * 2018-08-10 2021-08-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Display screen, electronic device and method for three-dimensional feature recognition
CN112840176B (en) 2018-08-24 2023-06-02 特里纳米克斯股份有限公司 Detector for determining the position of at least one object
CN113015882A (en) 2018-08-24 2021-06-22 特里纳米克斯股份有限公司 Measuring head for determining the position of at least one object
US10836120B2 (en) 2018-08-27 2020-11-17 Divergent Technologies, Inc . Hybrid composite structures with integrated 3-D printed elements
US11433557B2 (en) 2018-08-28 2022-09-06 Divergent Technologies, Inc. Buffer block apparatuses and supporting apparatuses
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
US11826953B2 (en) 2018-09-12 2023-11-28 Divergent Technologies, Inc. Surrogate supports in additive manufacturing
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US11072371B2 (en) 2018-10-05 2021-07-27 Divergent Technologies, Inc. Apparatus and methods for additively manufactured structures with augmented energy absorption properties
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11260582B2 (en) 2018-10-16 2022-03-01 Divergent Technologies, Inc. Methods and apparatus for manufacturing optimized panels and other composite structures
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11504912B2 (en) 2018-11-20 2022-11-22 Divergent Technologies, Inc. Selective end effector modular attachment device
USD911222S1 (en) 2018-11-21 2021-02-23 Divergent Technologies, Inc. Vehicle and/or replica
TWI689742B (en) * 2018-12-06 2020-04-01 財團法人工業技術研究院 Method and device for detecting spot position
CN109597030B (en) * 2018-12-14 2023-04-07 国网吉林省电力有限公司信息通信公司 Method and device for positioning objects in storage room based on visible light signals
US11449021B2 (en) 2018-12-17 2022-09-20 Divergent Technologies, Inc. Systems and methods for high accuracy fixtureless assembly
US11529741B2 (en) 2018-12-17 2022-12-20 Divergent Technologies, Inc. System and method for positioning one or more robotic apparatuses
US10663110B1 (en) 2018-12-17 2020-05-26 Divergent Technologies, Inc. Metrology apparatus to facilitate capture of metrology data
US11885000B2 (en) 2018-12-21 2024-01-30 Divergent Technologies, Inc. In situ thermal treatment for PBF systems
WO2020144200A1 (en) 2019-01-09 2020-07-16 Trinamix Gmbh Detector for determining a position of at least one object
JP2022517221A (en) 2019-01-09 2022-03-07 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for determining the position of at least one object
US11908156B2 (en) 2019-01-09 2024-02-20 Trinamix Gmbh Detector for determining a position of at least one object
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
WO2020169727A1 (en) 2019-02-20 2020-08-27 Trinamix Gmbh Detector with a projector for illuminating at least one object
US11500091B2 (en) * 2019-03-13 2022-11-15 Wisconsin Alumni Research Foundation Non-line-of-sight imaging system for distant measurement
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
CN113574406A (en) 2019-03-15 2021-10-29 特里纳米克斯股份有限公司 Detector for identifying at least one material property
JP7095640B2 (en) * 2019-03-28 2022-07-05 株式会社デンソー Object detector
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11203240B2 (en) 2019-04-19 2021-12-21 Divergent Technologies, Inc. Wishbone style control arm assemblies and methods for producing same
US11279035B1 (en) * 2019-05-23 2022-03-22 Amazon Technologies, Inc. LIDAR safely rings
CN113841061A (en) * 2019-05-31 2021-12-24 三菱电机株式会社 Object detection system and object detection method
US11644571B2 (en) 2019-07-01 2023-05-09 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
KR102043596B1 (en) * 2019-07-02 2019-11-13 정웅석 Cognition system of location using a ultrasonics wave
CN110579777A (en) * 2019-09-16 2019-12-17 山东科技大学 Underwater flexible barrier detection system and method
EP4038354A1 (en) 2019-10-01 2022-08-10 trinamiX GmbH Detector array and a spectrometer system
CN114556155A (en) 2019-10-07 2022-05-27 特里纳米克斯股份有限公司 Projector for illuminating at least one object
US11912339B2 (en) 2020-01-10 2024-02-27 Divergent Technologies, Inc. 3-D printed chassis structure with self-supporting ribs
US11590703B2 (en) 2020-01-24 2023-02-28 Divergent Technologies, Inc. Infrared radiation sensing and beam control in electron beam additive manufacturing
JP2023512280A (en) 2020-01-31 2023-03-24 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for object recognition
US11479015B2 (en) 2020-02-14 2022-10-25 Divergent Technologies, Inc. Custom formed panels for transport structures and methods for assembling same
US11884025B2 (en) 2020-02-14 2024-01-30 Divergent Technologies, Inc. Three-dimensional printer and methods for assembling parts via integration of additive and conventional manufacturing operations
US11535322B2 (en) 2020-02-25 2022-12-27 Divergent Technologies, Inc. Omni-positional adhesion device
US11421577B2 (en) 2020-02-25 2022-08-23 Divergent Technologies, Inc. Exhaust headers with integrated heat shielding and thermal syphoning
US11413686B2 (en) 2020-03-06 2022-08-16 Divergent Technologies, Inc. Methods and apparatuses for sealing mechanisms for realizing adhesive connections with additively manufactured components
EP4139703A1 (en) 2020-04-22 2023-03-01 trinamiX GmbH Illumination pattern for object depth measurment
US11796715B2 (en) 2020-06-24 2023-10-24 Sloan Valve Company Hybrid time-of-flight sensor and IR sensor
EP3941030B1 (en) * 2020-07-16 2023-05-24 Nokia Technologies Oy Apparatus, method and computer program for image capturing
US11850804B2 (en) 2020-07-28 2023-12-26 Divergent Technologies, Inc. Radiation-enabled retention features for fixtureless assembly of node-based structures
US11806941B2 (en) 2020-08-21 2023-11-07 Divergent Technologies, Inc. Mechanical part retention features for additively manufactured structures
US10989783B1 (en) * 2020-10-26 2021-04-27 Listen Technologies Corporation False positive immunity in beacon systems, and related systems, methods, and devices
WO2022102856A1 (en) * 2020-11-12 2022-05-19 주식회사 에스오에스랩 Lidar device
US11872626B2 (en) 2020-12-24 2024-01-16 Divergent Technologies, Inc. Systems and methods for floating pin joint design
US11947335B2 (en) 2020-12-30 2024-04-02 Divergent Technologies, Inc. Multi-component structure optimization for combining 3-D printed and commercially available parts
US11928966B2 (en) 2021-01-13 2024-03-12 Divergent Technologies, Inc. Virtual railroad
CN113144610B (en) * 2021-03-02 2024-04-30 百果园技术(新加坡)有限公司 User capability updating method and device, electronic equipment and storage medium
EP4304865A1 (en) 2021-03-09 2024-01-17 Divergent Technologies, Inc. Rotational additive manufacturing systems and methods
US11915405B2 (en) 2021-03-16 2024-02-27 Applied Optimization, Inc. Additive manufacturing process monitoring
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
WO2023275242A1 (en) 2021-07-02 2023-01-05 Trinamix Gmbh Measurement head
US11865617B2 (en) 2021-08-25 2024-01-09 Divergent Technologies, Inc. Methods and apparatuses for wide-spectrum consumption of output of atomization processes across multi-process and multi-scale additive manufacturing modalities
KR102611132B1 (en) * 2021-10-29 2023-12-06 세메스 주식회사 Fringe information measuring apparatus and substrate treating system including the same
WO2023139254A1 (en) * 2022-01-24 2023-07-27 Trinamix Gmbh Enhanced material detection by stereo beam profile analysis
CN117315011B (en) * 2023-11-30 2024-04-02 吉林珩辉光电科技有限公司 Method and device for positioning light spot center in atmospheric turbulence

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5979805A (en) * 1982-10-29 1984-05-09 Matsushita Electric Works Ltd Distance sensor
JPS61135280A (en) * 1984-12-06 1986-06-23 Toshiba Corp 3-dimensional image pickup element
JPH07146113A (en) * 1993-11-25 1995-06-06 Hitachi Zosen Corp Laser displacement meter
CA2196563A1 (en) * 1995-06-07 1996-12-19 Shree K. Nayar Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
JPH09130661A (en) * 1995-10-27 1997-05-16 Canon Inc Focus state detector and optical device
DE19603267A1 (en) * 1996-01-30 1997-07-31 Bosch Gmbh Robert Device for determining the distance and / or position
JPH11201718A (en) * 1997-11-13 1999-07-30 Omron Corp Sensor device and distance measuring equipment
JP3110095B2 (en) * 1991-09-20 2000-11-20 富士通株式会社 Distance measuring method and distance measuring device
WO2006134370A1 (en) * 2005-06-17 2006-12-21 Mbda Uk Limited Range detection
JP2009257890A (en) * 2008-04-15 2009-11-05 Ricoh Co Ltd Portable information terminal, detection device, position information management system, and positional information management method
WO2012070208A1 (en) * 2010-11-24 2012-05-31 パナソニック株式会社 Image capturing device, image capturing method, program and integrated circuit
WO2012110924A1 (en) * 2011-02-15 2012-08-23 Basf Se Detector for optically detecting at least one object

Family Cites Families (386)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL100993C (en) 1956-06-27
US3035176A (en) 1959-11-23 1962-05-15 Packard Bell Electronics Corp Monoscopic range finder
CH388657A (en) 1963-04-17 1965-02-28 Paillard Sa Device for detecting the maximum sharpness of an image
US3552785A (en) 1968-08-22 1971-01-05 Moog Industries Inc Elastic joint assembly for automobile suspension strut rods
US3564263A (en) 1968-09-30 1971-02-16 Coulter Electronics Optical particle sensor having a light collector mounted on the photosensor
US3562785A (en) 1968-11-20 1971-02-09 Logetronics Inc Image adjusting method
US3873823A (en) * 1972-12-06 1975-03-25 Sanders Associates Inc Alignment indicating beacon
SE407976B (en) 1973-03-13 1979-04-30 Bofors Ab PROCEDURE AND DEVICE FOR TEMPLATING
JPS5625648B2 (en) 1973-04-11 1981-06-13
JPS5634842B2 (en) 1973-10-26 1981-08-13
FR2271590B1 (en) 1974-01-15 1978-12-01 Thomson Brandt
US4079247A (en) 1975-05-16 1978-03-14 Claude Bricot Optical focussing device
US4209252A (en) * 1978-07-03 1980-06-24 Arditty Herve J Optical probe assembly for detecting the position of an object surface and method
US4256513A (en) 1978-10-19 1981-03-17 Matsushita Electric Industrial Co., Ltd. Photoelectric conversion device
JPS55159445A (en) 1979-05-31 1980-12-11 Ricoh Co Ltd Electrophotographic receptor
EP0020879A1 (en) 1979-06-06 1981-01-07 Erwin Sick GmbH Optik-Elektronik Optical electronic distance sensor
NL187374C (en) 1981-07-10 1991-09-02 Philips Nv DEVICE FOR DETECTING RADIATION.
US4405943A (en) * 1981-08-19 1983-09-20 Harris Corporation Low bandwidth closed loop imagery control and communication system for remotely piloted vehicle
JPS58175091A (en) 1982-04-06 1983-10-14 株式会社東芝 Security thread detector
US4548886A (en) 1982-06-08 1985-10-22 Canon Kabushiki Kaisha Radiation sensitive organic thin film comprising an azulenium salt
JPS5950579A (en) 1982-09-16 1984-03-23 Komatsu Ltd Semiconductor optical position detector
US4593187A (en) 1982-10-29 1986-06-03 The Perkin-Elmer Corporation Non-imaging illumination incidence angle detection system
AU2239683A (en) 1982-12-16 1984-06-21 Vickers Plc Photoconductive compositions
US4584704A (en) 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
US4773751A (en) 1984-03-09 1988-09-27 Minolta Camera Kabushiki Kaisha Infinite level setting device for a distance measuring device
JPS6189501A (en) 1984-10-08 1986-05-07 Hitachi Ltd Boundary surface measuring apparatus
GB2165641B (en) 1984-10-13 1988-01-13 Graviner Ltd Measuring distance to a fire
US4602158A (en) 1984-10-26 1986-07-22 Itek Corporation PbS-PbSe IR detector arrays
US4603258A (en) 1984-11-16 1986-07-29 Sri International Photocapacitive detector array
EP0187620B1 (en) 1985-01-03 1991-04-17 Ciba-Geigy Ag Dithioketo-pyrrolo-pyrroles, process for their preparation and use
JPS61186804A (en) 1985-02-11 1986-08-20 ゼロツクス コーポレーシヨン Photodetector
US4647193A (en) 1985-06-10 1987-03-03 Rca Corporation Optical target ranging apparatus
US4760004A (en) 1986-11-10 1988-07-26 Ciba-Geigy Corporation Thioquinacridones and isothioquinacridones, preparation and use thereof
JPS6417485A (en) * 1987-07-10 1989-01-20 Mitsubishi Electric Corp Image sensing element
DE3789505T2 (en) 1987-09-28 1994-10-20 Kobe Steel Ltd Device and method for determining the direction of incident light.
CH674596A5 (en) 1988-02-12 1990-06-15 Sulzer Ag
US5082363A (en) 1988-02-12 1992-01-21 Omron Tateisi Electronics Co. Optical distance measuring apparatus and method using light projection pulses
US5343291A (en) * 1988-02-16 1994-08-30 Canon Kabushiki Kaisha Method and apparatus for measuring an interval between two objects
US4952472A (en) 1988-07-01 1990-08-28 Xerox Corporation Indigoid photoconductor imaging members
JP2687154B2 (en) 1988-12-23 1997-12-08 株式会社小松製作所 3D position measuring device
KR940000019B1 (en) * 1989-12-25 1994-01-05 미쯔비시 덴끼 가부시기가이샤 Measuring apparatus for distance
JPH04240817A (en) 1991-01-25 1992-08-28 Seiko Epson Corp Optical element
ATE131953T1 (en) 1990-04-17 1996-01-15 Ecole Polytech PHOTOVOLTAIC CELLS
JPH0711420B2 (en) * 1990-05-23 1995-02-08 日本電気株式会社 Range image acquisition method and apparatus
DE4211875A1 (en) 1990-10-09 1993-10-14 Zeiss Carl Fa Optical rangefinder with electronic correction for spot eccentricity - evaluates measurement error due to e.g. inclination of object surface in terms of spot displacement at second photodetector.
JP3187897B2 (en) 1991-02-26 2001-07-16 オリンパス光学工業株式会社 Distance measuring device
US5375008A (en) 1991-07-17 1994-12-20 Electronic Warfare Associates, Inc. Systems for distinguishing between friendly ground targets and those of a foe
JPH0548833A (en) 1991-08-07 1993-02-26 Asahi Optical Co Ltd Chromatic aberration correcting structure
US5227985A (en) 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5216476A (en) 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
US5291066A (en) 1991-11-14 1994-03-01 General Electric Company Moisture-proof electrical circuit high density interconnect module and method for making same
US5355241A (en) 1991-12-09 1994-10-11 Kelley Clifford W Identification friend or foe discriminator
AT401829B (en) 1992-02-25 1996-12-27 Oesterr Nationalbank METHOD FOR CONDITION, QUALITY OR FIT CONTROL OF OPTICAL SECURITY FEATURES ON SECURITIES, ESPECIALLY BANKNOTES, AND DEVICE FOR IMPLEMENTING THE PROCESS
JPH05240640A (en) 1992-02-26 1993-09-17 Omron Corp Optical distance measuring device
JPH06133321A (en) * 1992-10-15 1994-05-13 Sony Corp Ccd image pickup device
JP3406656B2 (en) 1992-12-19 2003-05-12 ペンタックス株式会社 Distance measuring device
JPH07142761A (en) 1993-11-18 1995-06-02 Mitsubishi Electric Corp Photoreceptor element and its array, device and method for sensing picture
JP3143319B2 (en) * 1994-05-26 2001-03-07 防衛庁技術研究本部長 Electro-optical equipment
US5589928A (en) 1994-09-01 1996-12-31 The Boeing Company Method and apparatus for measuring distance to a target
JPH08159714A (en) 1994-11-30 1996-06-21 Omron Corp Position detection sensor
JPH08292586A (en) 1995-04-21 1996-11-05 Hodogaya Chem Co Ltd Electrophotographic photoreceptor
US6363164B1 (en) 1996-05-13 2002-03-26 Cummins-Allison Corp. Automated document processing system using full image scanning
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
EP0886790B1 (en) * 1995-06-22 2006-03-01 3DV Systems Ltd. Telecentric 3d camera and method
DE19526526A1 (en) 1995-07-20 1997-01-23 Bayerische Motoren Werke Ag Device for the optical scanning of measuring surfaces
US5856844A (en) * 1995-09-21 1999-01-05 Omniplanar, Inc. Method and apparatus for determining position and orientation
JP3364382B2 (en) 1996-07-12 2003-01-08 株式会社東芝 Sample surface position measuring device and measuring method
JPH10153405A (en) * 1996-11-26 1998-06-09 Fuji Xerox Co Ltd Measuring device and measuring method
JPH10221064A (en) 1997-02-07 1998-08-21 Nippon Soken Inc Optical distance-measuring device
DE69832574T2 (en) 1997-07-29 2006-06-14 Nhk Spring Co Ltd Optical identification system with cholesteric liquid crystals
JP2001516150A (en) 1997-08-15 2001-09-25 ユニアックス コーポレイション Organic diodes with switchable photosensitivity
JPH11230860A (en) 1998-02-12 1999-08-27 Fujitsu Ltd Method and device for measuring optical thin film, and device for removing interfering light in optical thin film measurement used for same device
JPH11257917A (en) 1998-03-12 1999-09-24 Omron Corp Reflection type optical sensor
US6671058B1 (en) * 1998-03-23 2003-12-30 Leica Geosystems Ag Method for determining the position and rotational position of an object
JPH11325825A (en) * 1998-05-13 1999-11-26 Olympus Optical Co Ltd Distance measuring equipment
US6191881B1 (en) 1998-06-22 2001-02-20 Citizen Watch Co., Ltd. Variable focal length lens panel and fabricating the same
US6266142B1 (en) * 1998-09-21 2001-07-24 The Texas A&M University System Noncontact position and orientation measurement system and method
JP2000121352A (en) 1998-10-20 2000-04-28 Olympus Optical Co Ltd Range finder
JP3219387B2 (en) 1999-01-08 2001-10-15 ミノルタ株式会社 Imaging device and distance measuring device using the imaging device
JP2000346615A (en) * 1999-06-09 2000-12-15 Olympus Optical Co Ltd Optical displacement sensor
US6359211B1 (en) 1999-06-17 2002-03-19 Chemmotif, Inc. Spectral sensitization of nanocrystalline solar cells
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
WO2001029576A1 (en) 1999-10-21 2001-04-26 Psc Scanning, Inc. Rangefinder using collected spot spread and insert shadowing
US6785028B1 (en) 1999-11-24 2004-08-31 Ricoh Company, Ltd. Optical scanning device having a temperature compensation unit
EP1762398B2 (en) 2000-01-21 2017-09-27 Viavi Solutions Inc. Optically variable security devices
JP4547760B2 (en) 2000-02-28 2010-09-22 株式会社島津製作所 Radiation detector and radiation imaging apparatus
US6590224B2 (en) 2000-03-22 2003-07-08 Fuji Photo Film Co., Ltd. Image storage medium and method of manufacturing the same
JP2001284631A (en) * 2000-03-30 2001-10-12 Toshiba Corp Photodetector and photodetection system
WO2002021883A1 (en) 2000-09-06 2002-03-14 Osram Opto Semiconductors Gmbh Patterning of electrodes in oled devices
JP3554929B2 (en) 2000-05-09 2004-08-18 韓国科学技術院 Swing-arm optical system for measuring 6-DOF motion of hard disk drive slider using multi-directional reflector
EP1176646A1 (en) 2000-07-28 2002-01-30 Ecole Polytechnique Féderale de Lausanne (EPFL) Solid state heterojunction and solid state sensitized photovoltaic cell
US6699728B2 (en) 2000-09-06 2004-03-02 Osram Opto Semiconductors Gmbh Patterning of electrodes in oled devices
JP2002100469A (en) 2000-09-25 2002-04-05 Pioneer Electronic Corp Organic electroluminescence display panel
DE10146752B4 (en) 2000-09-25 2006-03-23 Leuze Electronic Gmbh & Co Kg Optoelectronic device
JP4278080B2 (en) 2000-09-27 2009-06-10 富士フイルム株式会社 High sensitivity light receiving element and image sensor
EP1213568B1 (en) * 2000-12-08 2005-12-28 Gretag-Macbeth AG Device for the measurement by pixel of a plane measuring object
ES2244777T3 (en) 2001-03-23 2005-12-16 Basf Aktiengesellschaft POLYCLICAL COMPOUNDS SUBSTITUTED BY TERC.-ALQUILFENOXI.
AU2002329183A1 (en) 2001-06-11 2002-12-23 The Trustees Of Princeton University Organic photovoltaic devices
DE10154861A1 (en) * 2001-11-08 2003-05-22 Ibeo Automobile Sensor Gmbh Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time
DE10130763A1 (en) 2001-06-26 2003-01-02 Bosch Gmbh Robert Device for optical distance measurement over a large measuring range
DE10134132A1 (en) 2001-07-13 2003-01-30 Siemens Ag Device and method for the continuous printing of organic light emitting diodes
US6656611B2 (en) 2001-07-20 2003-12-02 Osram Opto Semiconductors Gmbh Structure-defining material for OLEDs
WO2003012371A1 (en) 2001-08-01 2003-02-13 National Research Council Of Canada System and method of light spot position and color detection
NO316632B1 (en) 2001-11-16 2004-03-15 Thin Film Electronics Asa Matrix addressable optoelectronic apparatus and electrode assembly in the same
JP2003209665A (en) 2002-01-16 2003-07-25 Fuji Photo Film Co Ltd Image reading method and image recording reader
US20030147002A1 (en) 2002-02-06 2003-08-07 Eastman Kodak Company Method and apparatus for a color sequential scannerless range imaging system
JP2003333757A (en) 2002-05-14 2003-11-21 Sony Corp Power source apparatus
JP2005525956A (en) 2002-05-17 2005-09-02 チバ スペシャルティ ケミカルズ ホールディング インコーポレーテッド Optical storage medium containing pentacyclic xanthylium dye
CH695914A5 (en) 2002-05-17 2006-10-13 Hera Rotterdam Bv Device and method for the optical detection of objects.
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
EP1376205A1 (en) 2002-06-21 2004-01-02 Asulab S.A. Connection means for making an electrical connection betweeen a cell, in particular comprising liquid crystals, and a driving or supply circuit
US20040031519A1 (en) 2002-08-13 2004-02-19 Agfa-Gevaert Nano-porous metal oxide semiconductor spectrally sensitized with metal oxide chalcogenide nano-particles
DE10238994A1 (en) 2002-08-20 2004-02-26 Basf Ag New mono- and bis-rylenedicarbimidyl-anthraquinone dyes for coloring (in)organic material, e.g. plastics, or coating system or as organic pigment dispersant or additive or electrophotographic photoconductor
GB2395261A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
US6947459B2 (en) * 2002-11-25 2005-09-20 Eastman Kodak Company Organic vertical cavity laser and imaging system
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7435940B2 (en) * 2003-03-12 2008-10-14 Flatfrog Laboratories Ab System and a method of determining the position of a radiation emitting element
US6995445B2 (en) 2003-03-14 2006-02-07 The Trustees Of Princeton University Thin film organic position sensitive detectors
EP1464990B8 (en) 2003-03-31 2019-11-13 RUAG Schweiz AG Modulatable reflector
SG115546A1 (en) 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
US7132788B2 (en) 2003-09-09 2006-11-07 Osram Opto Semiconductors Gmbh Optimal bank shapes for inkjet printing
JP2005091286A (en) 2003-09-19 2005-04-07 Nec Corp Laser ranging finding device
JP4262566B2 (en) * 2003-10-16 2009-05-13 株式会社日立製作所 In-vehicle imaging device and camera
JP4578797B2 (en) 2003-11-10 2010-11-10 パナソニック株式会社 Imaging device
DE10358967B4 (en) 2003-12-15 2006-11-16 Universität Kassel Micromirror array
DE10359403B4 (en) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoscopic multi-user display
JP2005189087A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Distance measurement equipment and program
JP2005241340A (en) 2004-02-25 2005-09-08 Sharp Corp Multi-range finding device
GB2428391B (en) 2004-03-29 2008-10-29 Waters Investments Ltd A capillar emitter for electrospray mass spectrometry
WO2005098476A1 (en) * 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
JP4360967B2 (en) 2004-04-09 2009-11-11 サミー株式会社 Operation switch device and game machine
US7419846B2 (en) 2004-04-13 2008-09-02 The Trustees Of Princeton University Method of fabricating an optoelectronic device having a bulk heterojunction
WO2005106965A1 (en) 2004-05-04 2005-11-10 The University Of Newcastle Research Associates Limited Multicomponent organic solar cells
US7773070B2 (en) 2004-05-21 2010-08-10 Cypress Semiconductor Corporation Optical positioning device using telecentric imaging
GB0415102D0 (en) 2004-07-06 2004-08-11 Koninkl Philips Electronics Nv Display devices and driving method therefor
US7540978B2 (en) 2004-08-05 2009-06-02 Novaled Ag Use of an organic matrix material for producing an organic semiconductor material, organic semiconductor material and electronic component
KR20070045335A (en) 2004-08-23 2007-05-02 코닌클리케 필립스 일렉트로닉스 엔.브이. Position and orientation detection for an optical identifier
US7180065B2 (en) 2004-09-30 2007-02-20 Battelle Memorial Institute Infra-red detector and method of making and using same
US7626569B2 (en) 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
EP1667246A1 (en) 2004-12-03 2006-06-07 ETeCH AG A multi-colour sensitive device for colour image sensing
US7301608B1 (en) 2005-01-11 2007-11-27 Itt Manufacturing Enterprises, Inc. Photon-counting, non-imaging, direct-detect LADAR
US8228299B1 (en) 2005-01-27 2012-07-24 Singleton Technology, Llc Transaction automation and archival system using electronic contract and disclosure units
JP3110095U (en) 2005-01-28 2005-06-16 心源工業股▲分▼有限公司 Blade positioning device
DE102005010250B4 (en) 2005-02-25 2007-02-01 Seereal Technologies Gmbh Method and device for tracking sweet spots
EP1703300A1 (en) 2005-03-17 2006-09-20 Leica Geosystems AG Method and system for determining position and orientation of an object
US7196317B1 (en) 2005-03-25 2007-03-27 Virginia Tech Intellectual Properties, Inc. System, device, and method for detecting perturbations
JP4872035B2 (en) * 2005-06-03 2012-02-08 学校法人 中央大学 Imaging apparatus, captured image distance measuring method, captured image distance measuring program, and recording medium
DE102005032583A1 (en) 2005-07-11 2007-01-25 Basf Ag Substituted Rylene Derivatives
JP4977339B2 (en) 2005-07-11 2012-07-18 株式会社トプコン Geographic data collection device
US7933001B2 (en) 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
DE102005043627B4 (en) 2005-09-13 2012-06-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optical sensor and method for optical distance and / or color measurement
US20070080925A1 (en) 2005-10-11 2007-04-12 Nokia Corporation Power generating display device
DE102005053995A1 (en) 2005-11-10 2007-05-24 Basf Ag Use of rylene derivatives as photosensitizers in solar cells
JP2009516313A (en) 2005-11-11 2009-04-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for aligning an information carrier in a scanning device
US7489408B2 (en) 2005-11-15 2009-02-10 General Electric Company Optical edge break gage
GB2432723B (en) 2005-11-25 2010-12-08 Seiko Epson Corp Electrochemical cell and method of manufacture
WO2007095061A2 (en) 2006-02-09 2007-08-23 Qd Vision, Inc. Device including semiconductor nanocrystals and a layer including a doped organic material and methods
US7672527B2 (en) 2006-03-06 2010-03-02 Northrop Grumman Corporation Method and apparatus for chromatic correction of Fresnel lenses
US7839547B2 (en) 2006-03-08 2010-11-23 Kabushiki Kaisha Toshiba Optical fiber illumination device and inspection apparatus
DE102006013292A1 (en) 2006-03-23 2007-09-27 Robert Bosch Gmbh Device for optical distance measurement
DE102006013290A1 (en) 2006-03-23 2007-09-27 Robert Bosch Gmbh Device for optical distance measurement and method for operating such a device
EP1860462A1 (en) 2006-05-23 2007-11-28 Leica Geosystems AG Distance measuring method and distance meter for determining the spatial dimension of a target
US8144271B2 (en) 2006-08-03 2012-03-27 Perceptive Pixel Inc. Multi-touch sensing through frustrated total internal reflection
WO2008018768A1 (en) 2006-08-10 2008-02-14 Lg Chem, Ltd. A light guide plate for system inputting coordinate contactlessly, a system comprising the same and a method for inputting coordinate contactlessly using the same
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
CN101154291B (en) * 2006-09-29 2010-05-12 国际商业机器公司 Image data compression method, image display method and corresponding device
US20080170750A1 (en) 2006-11-01 2008-07-17 Demian Gordon Segment tracking in motion picture
JP5270835B2 (en) * 2006-12-29 2013-08-21 パナソニック株式会社 Photodetector, spatial information detector
US7511615B2 (en) 2007-01-01 2009-03-31 Intelguard Ltd. Self-operated perimeter intrusion detection system
US20080297487A1 (en) 2007-01-03 2008-12-04 Apple Inc. Display integrated photodiode matrix
DE102007003024A1 (en) 2007-01-20 2008-07-31 Sick Ag Triangulation sensor with distance determination from light spot position and shape
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
EP2134792A2 (en) 2007-04-05 2009-12-23 Basf Se Production of silicon and germanium phthalocyanines and related substances
JP2008267898A (en) 2007-04-18 2008-11-06 Sharp Corp Optical position sensor and electronic apparatus
WO2008145172A1 (en) 2007-05-25 2008-12-04 Universidad Autónoma de Madrid Tri-tert-butylcarboxyphthalocyanines, uses thereof and a process for their preparation
DE102007026595A1 (en) * 2007-06-08 2008-12-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for compensating color shifts in fiber optic imaging systems
US7939932B2 (en) 2007-06-20 2011-05-10 Analog Devices, Inc. Packaged chip devices with atomic layer deposition protective films
ATE498203T1 (en) 2007-07-23 2011-02-15 Basf Se PHOTOVOLTAIC TANDEM CELL
DE102007037875A1 (en) 2007-08-10 2009-02-12 Osram Gesellschaft mit beschränkter Haftung Radiation-emitting device
US8885177B2 (en) * 2007-09-26 2014-11-11 Elbit Systems Ltd. Medical wide field of view optical tracking system
JP2009097872A (en) 2007-10-12 2009-05-07 Sharp Corp Optical range-finding sensor, object detection device, cleaning toilet seat, and manufacturing method of the optical range-finding sensor
CA2703438A1 (en) 2007-10-25 2009-04-30 Jean-Charles Flores Ketopyrroles as organic semiconductors
US20100234478A1 (en) 2007-10-29 2010-09-16 Base Se Process for preparation of conducting polymers
JP2009182095A (en) 2008-01-30 2009-08-13 Fujifilm Corp Photoelectric converting element and solid-state image pickup element
AT506617B1 (en) 2008-02-27 2011-03-15 Isiqiri Interface Tech Gmbh DISPLAY AREA AND COMBINED CONTROL DEVICE
JP2011513752A (en) 2008-03-04 2011-04-28 カリフォルニア インスティテュート オブ テクノロジー Method using optofluidic microscope apparatus
JP2009296268A (en) * 2008-06-04 2009-12-17 Neuralimage Co Ltd Information processor, and information processing method
US20110284756A1 (en) 2008-07-21 2011-11-24 United States of America as repersented by the Administrator of the National Aeronautics and Spac Detector for dual band ultraviolet detection
JP5178393B2 (en) 2008-08-20 2013-04-10 シャープ株式会社 Optical distance measuring sensor and electronic device
US8107056B1 (en) 2008-09-17 2012-01-31 University Of Central Florida Research Foundation, Inc. Hybrid optical distance sensor
JP2010081002A (en) 2008-09-24 2010-04-08 Sanyo Electric Co Ltd Image pickup apparatus
KR101484111B1 (en) 2008-09-25 2015-01-19 삼성전자주식회사 Three dimensional image sensor
US8217261B2 (en) 2008-09-30 2012-07-10 Stion Corporation Thin film sodium species barrier method and structure for cigs based thin film photovoltaic cell
JP5469843B2 (en) 2008-10-09 2014-04-16 株式会社トプコン Laser surveying apparatus and distance measuring method
US9746544B2 (en) 2008-12-03 2017-08-29 Analog Devices, Inc. Position measurement systems using position sensitive detectors
DE102008061218B3 (en) 2008-12-09 2010-06-24 Sick Ag Optoelectronic sensor device
JP4818351B2 (en) 2008-12-25 2011-11-16 株式会社東芝 Image processing apparatus and image display apparatus
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
JP4846811B2 (en) 2009-02-03 2011-12-28 シャープ株式会社 Optical spot position detection apparatus, optical device including the same, and electronic apparatus including the optical device
US20110317879A1 (en) * 2009-02-17 2011-12-29 Absolute Robotics Limited Measurement of Positional Information for a Robot Arm
CN102326271A (en) 2009-02-23 2012-01-18 巴斯夫欧洲公司 The triarylamine derivative in organic solar batteries as the purposes of hole-conductive material and the organic solar batteries that contains said triaryl derivative
JP5406570B2 (en) 2009-03-13 2014-02-05 アイシン精機株式会社 Dye-sensitized solar cell and method for producing the same
US8497478B2 (en) 2009-03-31 2013-07-30 Osram Sylvania Inc. High voltage supply to increase rise time of current through light source in an optical sensor system
CN102459569B (en) 2009-04-10 2018-02-23 Reg生命科学有限责任公司 The generation of derivative of fatty acid
AT508438B1 (en) 2009-04-16 2013-10-15 Isiqiri Interface Tech Gmbh DISPLAY AREA AND A COMBINED CONTROL DEVICE FOR A DATA PROCESSING SYSTEM
US9071834B2 (en) 2009-04-25 2015-06-30 James Yett Array of individually angled mirrors reflecting disparate color sources toward one or more viewing positions to construct images and visual effects
US20100279458A1 (en) 2009-04-29 2010-11-04 Du Pont Apollo Ltd. Process for making partially transparent photovoltaic modules
JP2011027707A (en) 2009-06-25 2011-02-10 Sharp Corp Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
DE102009029372A1 (en) 2009-09-11 2011-03-24 Robert Bosch Gmbh Measuring device for measuring a distance between the measuring device and a target object by means of optical measuring radiation
CN101650173A (en) 2009-09-11 2010-02-17 武汉理工大学 Photoelectric sensor for position of sun
DE102009029364A1 (en) * 2009-09-11 2011-03-24 Robert Bosch Gmbh Measuring device for measuring a distance between the measuring device and a target object by means of optical measuring radiation
JP2011096329A (en) 2009-10-30 2011-05-12 Sanyo Electric Co Ltd Optical pickup device
US8287195B2 (en) 2009-11-10 2012-10-16 Dezeeuw Paul Motor controlled macro rail for close-up focus-stacking photography
JP5478215B2 (en) 2009-11-25 2014-04-23 オリンパスイメージング株式会社 Image capturing apparatus and method for controlling image capturing apparatus
JP5549204B2 (en) 2009-12-01 2014-07-16 セイコーエプソン株式会社 Optical position detection device, hand device, and touch panel
US8389670B2 (en) 2009-12-02 2013-03-05 Basf Se Dithienobenzo-thieno[3,2-B]thiophene-copolymer and its use as high performance solution processable semiconducting polymer
US8491135B2 (en) 2010-01-04 2013-07-23 Microvision, Inc. Interactive projection with gesture recognition
JP5685898B2 (en) 2010-01-08 2015-03-18 ソニー株式会社 Semiconductor device, solid-state imaging device, and camera system
DE102010006314A1 (en) 2010-01-29 2011-08-04 EWE-Forschungszentrum für Energietechnologie e. V., 26129 Photovoltaic multiple thin-film solar cell
JP5079826B2 (en) 2010-02-09 2012-11-21 シャープ株式会社 Optical distance measuring sensor and electronic device
JP5728673B2 (en) 2010-02-19 2015-06-03 デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド Multi-aperture image data processing
KR101251020B1 (en) 2010-03-09 2013-04-03 국립대학법인 울산과학기술대학교 산학협력단 Method for manufacturing graphene, transparent electrode, active layer comprising thereof, display, electronic device, optoelectronic device, solar cell and dye-sensitized solar cell including the electrode or active layer
JP5343896B2 (en) 2010-03-10 2013-11-13 セイコーエプソン株式会社 Optical position detector
US20100283868A1 (en) 2010-03-27 2010-11-11 Lloyd Douglas Clark Apparatus and Method for Application of Selective Digital Photomontage to Motion Pictures
DE102010020925B4 (en) * 2010-05-10 2014-02-27 Faro Technologies, Inc. Method for optically scanning and measuring an environment
CN101859439A (en) 2010-05-12 2010-10-13 合肥寰景信息技术有限公司 Movement tracking device for man-machine interaction and tracking method thereof
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
KR101665567B1 (en) 2010-05-20 2016-10-12 삼성전자주식회사 Temporal interpolation of three dimension depth image method and apparatus
GB2481366B (en) 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
WO2012001628A1 (en) 2010-06-29 2012-01-05 Basf Se Photoelectric conversion device comprising hydroxamic acid derivative or salt thereof as additive and process for producing same
TWI431252B (en) 2010-07-14 2014-03-21 Pixart Imaging Inc Distance measuring device and method for measuring distance
US20120293651A1 (en) 2010-07-23 2012-11-22 Toyota Jidosha Kabushiki Kaisha Distance measurement device and distance measurement method
US8743348B2 (en) 2010-09-03 2014-06-03 Pixart Imaging Inc. Optical distance detection system
WO2012033957A2 (en) 2010-09-09 2012-03-15 California Institute Of Technology Delayed emission detection devices and methods
JP5541023B2 (en) 2010-09-13 2014-07-09 ソニー株式会社 Objective lens, optical pickup, optical drive device
TW201211860A (en) 2010-09-13 2012-03-16 Pixart Imaging Inc Optical touch control apparatus and touch sensing method thereof
IL208568B (en) 2010-10-07 2018-06-28 Elbit Systems Ltd Mapping, detecting and tracking objects in an arbitrary outdoor scene using active vision
DE102010042278A1 (en) 2010-10-11 2012-04-12 Siemens Aktiengesellschaft Operation navigation system with structured light
DE102010049672B3 (en) * 2010-10-20 2012-02-16 Technische Universität Dresden Laser Doppler line distance sensor for three-dimensional shape measurement of moving solids
US8542288B2 (en) 2010-11-03 2013-09-24 Sony Corporation Camera system and imaging method using multiple lens and aperture units
CN201897828U (en) 2010-11-30 2011-07-13 深圳市中钞信达金融科技有限公司 Integrated system for bank note spectrum detection and security line detection
DE102010053978A1 (en) * 2010-12-09 2012-06-14 Universität Duisburg-Essen Method and system for determining the position and / or position of an object in a spatial measurement volume
KR101823719B1 (en) 2010-12-22 2018-01-30 바스프 에스이 Naphtalene monoimide derivatives and use thereof as photosensitizers in solar cells and photodetectors
FR2969819A1 (en) 2010-12-22 2012-06-29 St Microelectronics Grenoble 2 THREE DIMENSIONAL IMAGE SENSOR
CN102096962A (en) 2010-12-23 2011-06-15 北京新岸线软件科技有限公司 Paper currency detecting method and device
JP5550624B2 (en) 2010-12-24 2014-07-16 三菱電機株式会社 Photoelectric conversion device, manufacturing method thereof, and photoelectric conversion module
US8705805B2 (en) 2011-01-10 2014-04-22 Peter Alexander Forrest Secure portable token and systems and methods for identification and authentication of the same
US9001029B2 (en) 2011-02-15 2015-04-07 Basf Se Detector for optically detecting at least one object
SG183090A1 (en) 2011-02-15 2012-09-27 Hoya Corp Method of producing glass blank for substrate of information recording medium, substrate for information recording medium, and information recording medium; and manufacturing apparatus for glass blank for substrate of information recording medium
US9509968B2 (en) 2011-02-21 2016-11-29 National University Of Singapore Apparatus, system, and method for annotation of media files with sensor data
US9182602B2 (en) 2011-03-07 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Image pickup device and rangefinder device
US8593565B2 (en) 2011-03-25 2013-11-26 Gary S. Shuster Simulated large aperture lens
US8384984B2 (en) 2011-03-28 2013-02-26 Lighting Science Group Corporation MEMS wavelength converting lighting device and associated methods
CN102737435A (en) 2011-04-11 2012-10-17 北京新岸线数字图像技术有限公司 Paper money discrimination method and device
US8791901B2 (en) 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
JP5445509B2 (en) 2011-04-26 2014-03-19 パナソニック株式会社 Image forming apparatus, image forming method, and component mounting apparatus
US9711665B2 (en) 2011-05-10 2017-07-18 Basf Se Color converters
DE102011076493A1 (en) 2011-05-26 2012-11-29 Hilti Aktiengesellschaft Measuring device for distance measurement
JP6092198B2 (en) 2011-06-10 2017-03-08 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se New color converter
EP2535681B1 (en) 2011-06-17 2016-01-06 Thomson Licensing Device for estimating the depth of elements of a 3D scene
EP2725617A4 (en) 2011-06-24 2015-02-25 Boly Media Comm Shenzhen Co Hybrid multi-spectrum photosensitive pixel group, photosensitive device, and photosensitive system
WO2013009676A1 (en) 2011-07-13 2013-01-17 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3d coordinates of an object
EP2735542A4 (en) 2011-07-22 2015-04-08 Unist Academy Ind Res Corp Graphene sheet, transparent electrode having same, active layer, and display device, electronic device, optoelectronic device, battery, solar cell, and dye-sensitized solar cell including same
JP5791571B2 (en) 2011-08-02 2015-10-07 キヤノン株式会社 Imaging device and imaging apparatus
JP6296980B2 (en) 2011-09-02 2018-03-20 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Diketopyrrolopyrrole oligomer and composition comprising diketopyrrolopyrrole oligomer
CN102435136A (en) 2011-09-20 2012-05-02 浙江师范大学 Spatial phase-shifting unit, interferometry system applying same and phase-correcting unit
FR2980599B1 (en) 2011-09-27 2014-05-09 Isorg INTERACTIVE PRINTED SURFACE
CN102506754B (en) 2011-11-09 2013-11-06 西安工业大学 Confocal measurement device for simultaneously measuring surface appearance and color of object and using method thereof
CN103403494B (en) 2011-11-30 2016-08-24 松下知识产权经营株式会社 Camera head
AT512350B1 (en) 2011-12-20 2017-06-15 Isiqiri Interface Tech Gmbh COMPUTER PLANT AND CONTROL PROCESS THEREFOR
AU2011265572A1 (en) 2011-12-23 2013-07-11 Canon Kabushiki Kaisha Structured light system for robust geometry acquisition
WO2013118037A1 (en) 2012-02-10 2013-08-15 Koninklijke Philips N.V. A lighting assembly, a color conversion element, a lamp and a luminaire
AT512461B1 (en) 2012-02-10 2018-02-15 Isiqiri Interface Tech Gmbh DEVICE FOR ENTERING INFORMATION TO A DATA PROCESSING PLANT
US8804101B2 (en) 2012-03-16 2014-08-12 Advanced Scientific Concepts, Inc. Personal LADAR sensor
DE102012204572A1 (en) 2012-03-22 2013-09-26 Dr. Johannes Heidenhain Gmbh Position measuring device and arrangement with such a position measuring device
WO2013144177A1 (en) 2012-03-30 2013-10-03 Basf Se Quinolinium dyes with fluorinated counter anion for dye sensitized solar cells
EP2834284B1 (en) 2012-04-02 2017-05-10 Basf Se Phenanthro[9,10-b]furan polymers and small molecules for electronic applications
US9117277B2 (en) 2012-04-04 2015-08-25 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US9639947B2 (en) 2012-04-18 2017-05-02 Sony Corporation Method and optical system for determining a depth map of an image
DE102012208308A1 (en) 2012-05-18 2013-11-21 Robert Bosch Gmbh Optical rangefinder with calibration device to account for crosstalk
WO2013181215A1 (en) 2012-05-30 2013-12-05 Massachusetts Institute Of Technology Devices comprising graphene and a conductive polymer and related systems and methods
US9359470B2 (en) 2012-07-23 2016-06-07 Basf Se Dithienobenzofuran polymers and small molecules for electronic application
US20140043610A1 (en) 2012-08-07 2014-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Apparatus for inspecting a measurement object with triangulation sensor
US20140066656A1 (en) 2012-09-04 2014-03-06 Basf Se Spiro compounds and their use in organic electronics applications and devices
DE202012009070U1 (en) 2012-09-21 2012-11-12 Balluff Gmbh Optoelectronic sensor and receiver
KR20140058208A (en) 2012-11-06 2014-05-14 삼성전자주식회사 Image sensor
US9212948B2 (en) 2012-11-07 2015-12-15 The Trustees Of Columbia University In The City Of New York Lossless hyperspectral imaging
KR101984701B1 (en) 2012-11-13 2019-05-31 삼성전자주식회사 3D image dispaly apparatus including electrowetting lens array and 3D image pickup apparatus including electrowetting lens array
CN104797624B (en) 2012-12-04 2018-08-10 巴斯夫欧洲公司 Functionalization benzene thiophene polymer for electronic application
TWI456430B (en) * 2012-12-07 2014-10-11 Pixart Imaging Inc Gesture recognition apparatus, operating method thereof, and gesture recognition method
CN103106411A (en) 2012-12-13 2013-05-15 徐玉文 Tennis motion capturing and analyzing method
US9389315B2 (en) 2012-12-19 2016-07-12 Basf Se Detector comprising a transversal optical sensor for detecting a transversal position of a light beam from an object and a longitudinal optical sensor sensing a beam cross-section of the light beam in a sensor region
WO2014097489A1 (en) 2012-12-21 2014-06-26 グローリー株式会社 Spectral sensor
KR20150113014A (en) 2013-01-15 2015-10-07 바스프 에스이 Triangulene oligomers and polymers and their use as hole conducting material
KR20150109450A (en) 2013-01-25 2015-10-01 유니버시티 오브 플로리다 리서치 파운데이션, 아이엔씨. A novel ir image sensor using a solution processed pbs photodetector
US20150369663A1 (en) 2013-02-06 2015-12-24 Empire Technology Development Llc. Thermo-optic tunable spectrometer
EP2767846B1 (en) 2013-02-18 2017-01-11 Volvo Car Corporation Method for calibrating a sensor cluster in a motor vehicle
US20140347442A1 (en) 2013-05-23 2014-11-27 Yibing M. WANG Rgbz pixel arrays, imaging devices, controllers & methods
CN104052944A (en) 2013-03-15 2014-09-17 三星电子株式会社 Performing spatial & temporal image contrast detection in pixel array
AU2014233849A1 (en) 2013-03-18 2015-08-27 Basf Se Perylenemonoimide and naphthalenemonoimide derivatives and their use in dye-sensitized solar cells
JP2014232005A (en) 2013-05-28 2014-12-11 富士ゼロックス株式会社 Measurement device
US9143674B2 (en) 2013-06-13 2015-09-22 Mitutoyo Corporation Machine vision inspection system and method for performing high-speed focus height measurement operations
DE102014108353A1 (en) 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Method and device for the determination of geometries on measured objects by means of a combined sensor system
CN109521397B (en) 2013-06-13 2023-03-28 巴斯夫欧洲公司 Detector for optically detecting at least one object
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
EP2813324B1 (en) 2013-06-13 2016-04-06 Stanley Works (Europe) GmbH Hand tool having an electronic identification device
AU2014280334B2 (en) 2013-06-13 2018-02-01 Basf Se Optical detector and method for manufacturing the same
EP2818493A1 (en) 2013-06-25 2014-12-31 Basf Se Near infrared absorbing polymers for electronic applications
US9830501B2 (en) 2013-07-23 2017-11-28 Northwestern University High throughput partial wave spectroscopic microscopy and associated systems and methods
US20160155575A1 (en) 2013-07-25 2016-06-02 Basf Se Methine dyes with large organic counter anion for dye sensitized solar cells
US9673408B2 (en) 2013-07-31 2017-06-06 Udc Ireland Limited Luminescent diazabenzimidazole carbene metal complexes
BR112016002446A2 (en) 2013-08-05 2017-08-01 Basf Se cyanated naphthalenobenzimidazole compound, cyanated naphthalenobenzimidazole compound mixture, color converter, use of a color converter, lighting device, and device for the production of electricity by illumination
WO2015024871A1 (en) 2013-08-19 2015-02-26 Basf Se Optical detector
KR20160044009A (en) 2013-08-19 2016-04-22 바스프 에스이 Detector for determining a position of at least one object
JP6415560B2 (en) 2013-08-23 2018-10-31 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Compounds having terminal heteroarylcyanovinylene groups and use of said compounds in organic solar cells
EP3036782B1 (en) 2013-08-23 2019-10-09 Basf Se New absorber for organic heterojunction solar cells
AU2014317208B2 (en) 2013-09-03 2018-11-01 Basf Se Amorphous material and the use thereof
FR3011952B1 (en) 2013-10-14 2017-01-27 Suricog METHOD OF INTERACTION BY LOOK AND ASSOCIATED DEVICE
AT515132A1 (en) 2013-12-04 2015-06-15 Isiqiri Interface Tech Gmbh Optical input surface
JP6315964B2 (en) 2013-12-10 2018-04-25 オプテックス株式会社 Active object detection sensor
US9087405B2 (en) 2013-12-16 2015-07-21 Google Inc. Depth map generation using bokeh detection
US20160320489A1 (en) 2013-12-18 2016-11-03 Basf Se Target device for use in optical detection of an object
US20170140786A1 (en) 2014-03-31 2017-05-18 Basf Se Data readout device for reading out data from a data carrier
WO2015159192A1 (en) 2014-04-15 2015-10-22 Basf Se Process for the production of a solid dye-sensitized solar cell or a perovskite solar cell
WO2015159247A1 (en) 2014-04-17 2015-10-22 Basf Se Verification device, verification system and method for verifying the identity of an article
CN107003123A (en) 2014-04-22 2017-08-01 巴斯夫欧洲公司 Detector at least one object of optical detection
EP2937399A1 (en) 2014-04-22 2015-10-28 Basf Se Hole-transport materials for organic solar cells or organic optical sensors
TWI670331B (en) 2014-05-09 2019-09-01 德商巴地斯顏料化工廠 Cyanated perylene compounds
EP3146291A2 (en) 2014-05-18 2017-03-29 ADOM Advanced Optical Technologies Ltd. System for tomography and/or topography measurements of a layered object
CN106414447A (en) 2014-05-19 2017-02-15 Udc 爱尔兰有限责任公司 Fluorescent organic light emitting elements having high efficiency
US9864470B2 (en) 2014-05-30 2018-01-09 Flatfrog Laboratories Ab Enhanced interaction touch system
WO2015193804A2 (en) 2014-06-16 2015-12-23 Basf Se Detector for determining a position of at least one object
KR102397527B1 (en) 2014-07-08 2022-05-13 바스프 에스이 Detector for determining a position of at least one object
WO2016012274A1 (en) 2014-07-21 2016-01-28 Basf Se Organic-inorganic tandem solar cell
US9787899B1 (en) 2014-08-12 2017-10-10 Amazon Technologies, Inc. Multiple captures with a variable aperture
US9646365B1 (en) 2014-08-12 2017-05-09 Amazon Technologies, Inc. Variable temporal aperture
EP3195376A1 (en) 2014-09-18 2017-07-26 Basf Se Thermo-compression bonding of thermoelectric materials
KR102397222B1 (en) 2014-09-22 2022-05-13 유디씨 아일랜드 리미티드 Fluorescent organic light emitting elements having high efficiency
CN106687561A (en) 2014-09-26 2017-05-17 Udc爱尔兰有限责任公司 Fluorescent organic light emitting elements having high efficiency
KR102452393B1 (en) 2014-09-29 2022-10-11 바스프 에스이 Detector for optically determining a position of at least one object
WO2016066494A1 (en) 2014-10-31 2016-05-06 Basf Se Hole-transport materials for organic solar cells or organic optical sensors
CN105678123B (en) 2014-11-18 2019-03-08 联发科技(新加坡)私人有限公司 A kind of equipment unlocking method and device
EP3224246B1 (en) 2014-11-26 2022-01-12 Basf Se 4-oxoquinoline compounds
US20180007343A1 (en) 2014-12-09 2018-01-04 Basf Se Optical detector
WO2016092449A1 (en) 2014-12-09 2016-06-16 Basf Se Optical detector
CN107003117A (en) 2014-12-09 2017-08-01 巴斯夫欧洲公司 Detector for the optical detection of at least one object
KR20170094197A (en) 2014-12-09 2017-08-17 바스프 에스이 Optical detector
WO2016092451A1 (en) 2014-12-09 2016-06-16 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US20160255323A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
WO2016137238A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co., Ltd. Processing multi-aperture image data
US20180067213A1 (en) 2015-03-05 2018-03-08 Basf Se Detector for an optical detection of at least one object
US20180044357A1 (en) 2015-03-12 2018-02-15 Basf Se Process for the generation of thin inorganic films
WO2016146725A1 (en) 2015-03-17 2016-09-22 Basf Se Optical data reader
KR20170139626A (en) 2015-04-22 2017-12-19 트리나미엑스 게엠베하 Detectors for optical detection of one or more objects
US20180182980A1 (en) 2015-06-03 2018-06-28 Udc Ireland Limited Highly efficient oled devices with very short decay times
JP6877418B2 (en) 2015-07-17 2021-05-26 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for optically detecting at least one object
CN108140666A (en) 2015-08-10 2018-06-08 特里纳米克斯股份有限公司 For the Organic detector of the optical detection of at least one object
CN108141579B (en) 2015-09-14 2020-06-12 特里纳米克斯股份有限公司 3D camera
WO2017089553A1 (en) 2015-11-25 2017-06-01 Trinamix Gmbh Detector for optically detecting at least one object
KR20180086198A (en) 2015-11-25 2018-07-30 트리나미엑스 게엠베하 A detector for optically detecting at least one object
JP2018536169A (en) 2015-12-03 2018-12-06 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for optically detecting at least one object
US9755740B2 (en) * 2015-12-30 2017-09-05 Surefire Llc Receivers for optical narrowcasting
WO2017144401A1 (en) 2016-02-23 2017-08-31 Basf Se Luminescent particles
JP2019516096A (en) 2016-04-06 2019-06-13 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for optically detecting at least one object
US20190157470A1 (en) 2016-04-06 2019-05-23 Trinamix Gmbh Detector for optically detecting at least one object
US20190129036A1 (en) 2016-04-19 2019-05-02 Trinamix Gmbh Detector for an optical detection of at least one object
EP3449282A1 (en) 2016-04-28 2019-03-06 trinamiX GmbH Detector for optically detecting at least one object
WO2018019922A1 (en) 2016-07-29 2018-02-01 Trinamix Gmbh Detector for an optical detection of at least one object
WO2018019921A1 (en) 2016-07-29 2018-02-01 Trinamix Gmbh Optical sensor and detector for optical detection
US20190198206A1 (en) 2016-08-31 2019-06-27 Basf Se Controlled variation of parameters of magnetocaloric materials
CN109923372B (en) 2016-10-25 2021-12-21 特里纳米克斯股份有限公司 Infrared optical detector employing integrated filter
WO2018096083A1 (en) 2016-11-25 2018-05-31 Trinamix Gmbh Optical detector comprising at least one optical waveguide
WO2018100414A1 (en) 2016-12-01 2018-06-07 Synaptive Medical (Barbados) Inc. A camera system for providing images with simultaneous high resolution and large depth of field
WO2018115073A1 (en) 2016-12-21 2018-06-28 Trinamix Gmbh Detector for an optical detection
WO2018146146A1 (en) 2017-02-08 2018-08-16 Trinamix Gmbh Detector for an optical detection of at least one object
US20190386064A1 (en) 2017-02-08 2019-12-19 Trinamix Gmbh Detector for an optical detection of at least one object
CN110392844B (en) 2017-03-16 2024-03-12 特里纳米克斯股份有限公司 Detector for optically detecting at least one object
CN110770555A (en) 2017-04-20 2020-02-07 特里纳米克斯股份有限公司 Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
WO2019011803A1 (en) 2017-07-10 2019-01-17 Trinamix Gmbh Detector for optically detecting at least one object
EP3673589A1 (en) 2017-08-24 2020-07-01 Basf Se Transmitter for transmitting data and for emitting electromagnetic radiation in the visible spectral range and data transmission system
KR20200040780A (en) 2017-08-28 2020-04-20 트리나미엑스 게엠베하 A detector that determines the position of at least one object
EP3676630B1 (en) 2017-08-28 2022-11-30 trinamiX GmbH Range finder for determining at least one geometric information

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5979805A (en) * 1982-10-29 1984-05-09 Matsushita Electric Works Ltd Distance sensor
JPS61135280A (en) * 1984-12-06 1986-06-23 Toshiba Corp 3-dimensional image pickup element
JP3110095B2 (en) * 1991-09-20 2000-11-20 富士通株式会社 Distance measuring method and distance measuring device
JPH07146113A (en) * 1993-11-25 1995-06-06 Hitachi Zosen Corp Laser displacement meter
CA2196563A1 (en) * 1995-06-07 1996-12-19 Shree K. Nayar Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
JPH09130661A (en) * 1995-10-27 1997-05-16 Canon Inc Focus state detector and optical device
DE19603267A1 (en) * 1996-01-30 1997-07-31 Bosch Gmbh Robert Device for determining the distance and / or position
JPH11201718A (en) * 1997-11-13 1999-07-30 Omron Corp Sensor device and distance measuring equipment
WO2006134370A1 (en) * 2005-06-17 2006-12-21 Mbda Uk Limited Range detection
JP2009257890A (en) * 2008-04-15 2009-11-05 Ricoh Co Ltd Portable information terminal, detection device, position information management system, and positional information management method
WO2012070208A1 (en) * 2010-11-24 2012-05-31 パナソニック株式会社 Image capturing device, image capturing method, program and integrated circuit
WO2012110924A1 (en) * 2011-02-15 2012-08-23 Basf Se Detector for optically detecting at least one object

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HIURA S; MATSUYAMA T: "DEPTH MEASUREMENT BY THE MULTI-FOCUS CAMERA", 1998 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 1998. PROCEEDINGS., JPN5016006662, 23 June 1998 (1998-06-23), US, pages 953 - 959, XP010291663, ISSN: 0003940856, DOI: 10.1109/CVPR.1998.698719 *
PETLAND,ALEX P.: "A NEW SENSE FOR DEPTH OF FIELD", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Volume:PAMI-9,Issue:4, JPN7020003667, July 1987 (1987-07-01), US, pages 523 - 531, ISSN: 0004387950 *
奥村文洋,外2名: "拡張現実感のための実画像のぼけ推定に基づく画像合成手法", 情報科学技術フォーラム(FIT) 情報科学技術レターズ, vol. 4, JPN7020003668, 22 August 2005 (2005-08-22), JP, pages 245 - 248, ISSN: 0004387949 *
池岡 宏 外1名: "水平合焦面の被写界深度の変化を利用した広範囲・実時間距離推定方式", 映像情報メディア学会誌, vol. 64, no. 3, JPN7019002873, 10 December 2009 (2009-12-10), JP, pages 405 - 412, ISSN: 0004387948 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020525936A (en) * 2017-06-26 2020-08-27 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for determining the position of at least one object
JP7237024B2 (en) 2017-06-26 2023-03-10 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング a detector for determining the position of at least one object
US11980250B2 (en) 2018-01-24 2024-05-14 High-Low Heel, Llc Shoe with a high heel to low heel conversion

Also Published As

Publication number Publication date
JP2020098609A (en) 2020-06-25
JP6854366B2 (en) 2021-04-07
WO2014198623A1 (en) 2014-12-18
CN109521397A (en) 2019-03-26
CN105452895B (en) 2018-12-18
AU2014280338A1 (en) 2016-01-07
US10845459B2 (en) 2020-11-24
KR102246139B1 (en) 2021-04-30
EP3008484A1 (en) 2016-04-20
CN105452894A (en) 2016-03-30
AU2014280332B2 (en) 2017-09-07
US20180031672A1 (en) 2018-02-01
KR20160019065A (en) 2016-02-18
US20160127664A1 (en) 2016-05-05
EP3008485A1 (en) 2016-04-20
CN105452894B (en) 2019-04-30
US9989623B2 (en) 2018-06-05
KR20160019901A (en) 2016-02-22
AU2014280338B2 (en) 2017-08-17
US20160139243A1 (en) 2016-05-19
US10823818B2 (en) 2020-11-03
AU2014280332A1 (en) 2016-01-07
KR102322548B1 (en) 2021-11-05
JP2016529474A (en) 2016-09-23
US9829564B2 (en) 2017-11-28
US20180238993A1 (en) 2018-08-23
CN109521397B (en) 2023-03-28
WO2014198629A1 (en) 2014-12-18
CN110018487B (en) 2023-07-18
CN110018487A (en) 2019-07-16
CN105452895A (en) 2016-03-30

Similar Documents

Publication Publication Date Title
JP6854366B2 (en) Detector that optically detects at least one object
EP3325917B1 (en) Detector for optically detecting at least one object
JP6979068B2 (en) Detector for optically detecting at least one object
JP7237024B2 (en) a detector for determining the position of at least one object
JP6483127B2 (en) Detector for determining the position of at least one object
JP6660931B2 (en) Detector for determining the position of at least one object
JP2019516097A (en) Detector for optically detecting at least one object
JP2018507389A (en) Optical detector
JP2018507388A (en) Optical detector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200929

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201005

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201113

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201118

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210607

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210726

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210830

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210830