WO2023181092A1 - 電子機器、電子機器の制御方法およびプログラム - Google Patents
電子機器、電子機器の制御方法およびプログラム Download PDFInfo
- Publication number
- WO2023181092A1 WO2023181092A1 PCT/JP2022/012944 JP2022012944W WO2023181092A1 WO 2023181092 A1 WO2023181092 A1 WO 2023181092A1 JP 2022012944 W JP2022012944 W JP 2022012944W WO 2023181092 A1 WO2023181092 A1 WO 2023181092A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- electronic device
- event
- input
- event signal
- based vision
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000012545 processing Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Definitions
- the present invention relates to an electronic device, a method of controlling the electronic device, and a program.
- Event-based vision sensors are known in which pixels that detect changes in the intensity of incident light generate signals in a time-asynchronous manner. Event-based vision sensors can operate at low power and high speed compared to frame-type vision sensors that scan all pixels at predetermined intervals, specifically image sensors such as CCD and CMOS, and can operate at high speed with low temporal resolution. This is advantageous in that both spatial resolution and spatial resolution can be increased. Techniques regarding such event-based vision sensors are described in, for example, Patent Document 1 and Patent Document 2.
- the present invention aims to provide an electronic device, a control method for the electronic device, and a program that can realize effective operation when an event-based vision sensor is implemented together with other devices. purpose.
- an event-based vision sensor, a physical input/output unit, and a predetermined flag are attached to an event signal generated by the event-based vision sensor during operation of the input/output unit.
- An electronic device is provided that includes a control unit for setting.
- a method for controlling an electronic device including an event-based vision sensor and a physical input/output unit, wherein during operation of the input/output unit, the event-based vision sensor
- a method for controlling an electronic device including the step of setting a predetermined flag in an event signal generated by the method.
- a control program for an electronic device including an event-based vision sensor and a physical input/output unit, wherein during operation of the input/output unit, the event-based vision sensor
- a program is provided that causes a computer to implement a function of setting a predetermined flag on an event signal generated by a sensor.
- FIG. 1 is a diagram schematically showing the configuration of an electronic device according to an embodiment of the present invention.
- 12 is a flowchart illustrating an example of processing when a vibrator, speaker, or display operates.
- 12 is a flowchart illustrating an example of processing when an operation button or a touch sensor receives a physical input.
- 3 is a flowchart illustrating an example of processing when a flash device operates.
- FIG. 1 is a diagram schematically showing the configuration of an electronic device according to an embodiment of the present invention.
- the electronic device 10 includes an event-based vision sensor (EVS) 110, a vibrator 120, a speaker 130, an operation button 140, a touch sensor 150, a display 160, It includes a flash device 170, a control unit 200, a memory 210, a recording medium 220, and a communication device 230.
- the electronic device 10 according to the present embodiment is, for example, a smartphone, a tablet terminal, a portable game machine, or the like.
- the electronic device 10 does not necessarily need to include all of the vibrator 120, the speaker 130, the operation button 140, the touch sensor 150, the display 160, and the flash device 170, and may include only some of them.
- Touch sensor 150 and display 160 may be integrally implemented as a touch panel, for example.
- the electronic device 10 may include a physical input/output unit that is not limited to the above example.
- the EVS 110 is also called an EDS (Event Driven Sensor), an event camera, or a DVS (Dynamic Vision Sensor), and includes a sensor array composed of sensors including light receiving elements.
- the EVS 110 generates an event signal that includes a timestamp, identification information of the sensor, and information about the polarity of the brightness change when the sensor detects a change in the intensity of incident light, more specifically a change in brightness on the surface of an object.
- the event signal generated by the EVS 110 is input to the control unit 200.
- the control unit 200 temporarily or continuously stores the event signal in the memory 210 or the recording medium 220, or transfers the event signal to the external device 20 via the communication device 230.
- the vibrator 120, the speaker 130, the operation button 140, the touch sensor 150, the display 160, and the flash device 170 also operate under the control of the control unit 200 or send input signals to the control unit 200. Therefore, the operation timings of these devices are known in the control unit 200.
- the control unit 200 is configured by a processing circuit such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and/or an FPGA (Field-Programmable Gate Array).
- the memory 210 is configured by, for example, a storage device such as various types of ROM (Read Only Memory), RAM (Random Access Memory), and/or HDD (Hard Disk Drive).
- the control unit 200 executes operations as described below according to program codes stored in the memory 210.
- the program code may be read into the memory 210 from the recording medium 220, or may be received from the external device 20 via the communication device 230 and stored in the memory 210.
- the recording medium 220 includes, for example, a removable recording medium such as a semiconductor memory, a magnetic disk, an optical disk, or a magneto-optical disk, and a driver thereof.
- Communication device 230 includes various wired or wireless communication interfaces.
- the vibrator 120, speaker 130, operation button 140, touch sensor 150, display 160, and flash device 170 included in the electronic device 10 are examples of physical input/output units. More specifically, vibrator 120 and speaker 130 are devices that generate mechanical output called vibration.
- the operation button 140 and the touch sensor 150 are contact-type input devices, and are devices that accept mechanical inputs such as contact and pressure from a user's finger or the like.
- Display 160 and flash device 170 are devices that generate a physical output of light. As described below, when the above-mentioned physical input/output unit operates in the electronic device 10 in which the EVS 110 is installed, the detection results of the EVS 110 may be affected.
- the vibrator 120 generates vibrations in the housing of the electronic device 10, so when the vibrator 120 operates, the EVS 110 also vibrates.
- the EVS 110 detects changes in the intensity of incident light, but when the EVS 110 itself vibrates, the intensity of light at each pixel changes due to changes in the positional relationship with the object, so there is no change in brightness on the object surface.
- an event signal is generated at each pixel.
- an event signal is generated at each pixel of the EVS 110 due to vibrations generated in the housing when the speaker 130 outputs audio.
- Such an event signal becomes noise when, for example, the EVS 110 is used to detect movement of an object with respect to the electronic device 10. Since the EVS 110 has a higher temporal resolution than, for example, a frame-based vision sensor, there is a possibility that the influence of such vibration of the housing on the detection results cannot be ignored.
- displacement or vibration occurs in the casing of the electronic device 10 . Similar to the above example, when displacement or vibration occurs in the EVS 110 itself, an event signal is generated at each pixel even if no brightness change occurs on the object surface.
- the display 160 and the flash device 170 affect the detection results of the EVS 110 by reflecting the generated light on the object.
- a brightness change occurs on the surface of the object, but when detecting movement of the object with respect to the electronic device 10 using the EVS 110, for example, the light of the display 160 or flash device 170 is The event signal generated by the reflection becomes noise.
- the electronic device 10 may include an IMU (Inertial Measurement Unit).
- the IMU may be treated as a physical input/output unit in order to detect motion occurring in the housing of the electronic device 10.
- the IMU is used as a means for detecting that a physical input/output unit such as the above example, specifically, for example, the vibrator 120, the speaker 130, the operation button 140, or the touch sensor 150 is operating. Good too.
- the control unit 200 controls the detection results generated by the EVS 110 while the physical input/output unit is in operation, as described below.
- a predetermined flag is set for the event signal.
- the predetermined flag is added to the event signal as arbitrary setting information, for example.
- a predetermined flag distinguishes between event signals generated during the operation of the physical input/output unit and those that are not. It is possible to distinguish between the event signal and the event signal. Examples of processing by the control unit 200 in each example will be described below.
- FIG. 2 is a flowchart showing an example of processing when the vibrator 120, speaker 130, or display 160 operates.
- the vibrator 120, the speaker 130, and the display 160 operate under the control of the control unit 200, so the control unit 200 substantially controls the operation of these parts and the process of setting a flag in the event signal of the EVS 110. Can be synchronized.
- the control unit 200 sends a control signal to the vibrator 120, an audio signal to the speaker 130, or an audio signal to the display 160. Transmission of the image signal (step S102) and setting of a flag to the event signal (step S103) are executed substantially simultaneously.
- the above steps S101 to S103 are repeatedly executed, and while the vibrator 120, speaker 130, or display 160 continues to operate, the setting of the flag in the event signal continues.
- FIG. 3 is a flowchart illustrating an example of processing when the operation button 140 or the touch sensor 150 receives a physical input.
- the control unit 200 since the control unit 200 detects after the fact that the operation button 140 or the touch sensor 150 has received an input, the control unit 200 flags the event signal retroactively to the time when the input was received. Set. Specifically, when the control unit 200 receives an input signal from the operation button 140 or the touch sensor 150 (YES in step S201), the control unit 200 goes back in time by referring to the time stamp of the event signal buffered in the memory 210. A flag is set in the event signal in an interval of a predetermined length before and after the time when the input signal is received (step S202).
- Step S203 If input signals are received consecutively with a time difference shorter than the predetermined threshold (YES in step S203), the control unit 200 makes the section where the flag was previously set and the section where the flag is newly set consecutively. (Step S204). If the operation button 140 or the touch sensor 150 is continuously receiving input, the casing of the electronic device 10 is likely to be continuously displaced or vibrating. A flag can be continuously set in the event signal until the input of the event signal is completed.
- FIG. 4 is a flowchart showing an example of processing when the flash device 170 operates. Since the flash device 170 also operates under the control of the control unit 200, the control unit 200 substantially synchronizes the operation of the flash device 170 and the process of setting a flag in the event signal of the EVS 110, as in the example of FIG. It's okay. On the other hand, in the illustrated example, the operation of the flash device 170 is instantaneously executed, so that different processing from the example of FIG. 2 is executed.
- the control unit 200 determines to operate the flash device 170 (YES in step S301)
- the control unit 200 transmits a control signal to the flash device 170 (step S302), and transmits a control signal to the flash device 170 while the flash device 170 is in operation.
- the event signal buffered in the memory 210 is verified (step S303), and a flag is set for the event signal in an interval in which the time density of the event signal is specific (step S304).
- the section affected by the operation of the flash device 170 that is, the section in which a specifically large number of event signals are generated compared to the preceding and succeeding sections, can be more reliably identified and a flag set on the event signal. can do.
- the EVS 110 is connected to other devices, specifically, the vibrator 120, which is a physical input/output unit, the speaker 130, the operation button 140, and the touch sensor.
- the vibrator 120 which is a physical input/output unit
- the speaker 130 the speaker 130
- the operation button 140 the touch sensor.
- the touch sensor. 150, display 160, flash device 170, etc. are installed together, the effect on the detection results of the EVS 110 when the physical input/output section operates is reduced, and for example, noise included in the detection results is reduced. Reduced and effective operation can be achieved.
- the event signal for which the flag has been set may be treated as having low reliability. For example, a flagged event signal may be ignored. Alternatively, if an event signal with a flag set shows a different detection result from an event signal with no flag set, it may be ignored. Furthermore, if the event signal is affected by a device that operates continuously, such as the speaker 130 or the display 160, the event signal may be corrected and used according to a predetermined procedure.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
イベントベースのビジョンセンサと、物理的な入出力部と、上記入出力部の動作中は、上記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定する制御部とを備える電子機器が提供される。
Description
本発明は、電子機器、電子機器の制御方法およびプログラムに関する。
入射する光の強度変化を検出した画素が時間非同期的に信号を生成する、イベントベースのビジョンセンサが知られている。イベントベースのビジョンセンサは、所定の周期ごとに全画素をスキャンするフレーム型ビジョンセンサ、具体的にはCCDやCMOSなどのイメージセンサに比べて、低電力で高速に動作可能であり、時間解像度および空間解像度の両方を高くすることができる点で有利である。このようなイベントベースのビジョンセンサに関する技術は、例えば特許文献1および特許文献2に記載されている。
しかしながら、イベントベースのビジョンセンサについては、上記のような利点は知られているものの、電子機器に他の装置と一緒に実装された場合の動作を考慮した周辺技術については、まだ十分に提案されているとは言いがたい。
そこで、本発明は、イベントベースのビジョンセンサが他の装置と一緒に実装されている場合に効果的な動作を実現することが可能な電子機器、電子機器の制御方法およびプログラムを提供することを目的とする。
本発明のある観点によれば、イベントベースのビジョンセンサと、物理的な入出力部と、上記入出力部の動作中は、上記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定する制御部とを備える電子機器が提供される。
本発明の別の観点によれば、イベントベースのビジョンセンサと、物理的な入出力部とを備える電子機器の制御方法であって、上記入出力部の動作中は、上記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定するステップを含む、電子機器の制御方法が提供される。
本発明のさらに別の観点によれば、イベントベースのビジョンセンサと、物理的な入出力部とを備える電子機器の制御プログラムであって、上記入出力部の動作中は、上記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定する機能をコンピュータに実現させるプログラムが提供される。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1は、本発明の一実施形態に係る電子機器の構成を概略的に示す図である。図示された例において、電子機器10は、イベントベースのビジョンセンサ(EVS:Event-based Vision Sensor)110と、バイブレータ120と、スピーカー130と、操作ボタン140と、タッチセンサ150と、ディスプレイ160と、フラッシュ装置170と、制御部200と、メモリ210と、記録媒体220と、通信装置230とを含む。本実施形態に係る電子機器10は、例えばスマートフォン、タブレット端末または携帯ゲーム機などである。なお、電子機器10は、必ずしもバイブレータ120、スピーカー130、操作ボタン140、タッチセンサ150、ディスプレイ160、およびフラッシュ装置170のすべてを含まなくてもよく、これらの一部だけを含んでもよい。タッチセンサ150とディスプレイ160とは、例えばタッチパネルとして一体的に実装されてもよい。また、上記の例には限られない物理的な入出力部が電子機器10に含まれてもよい。
EVS110は、EDS(Event Driven Sensor)、イベントカメラまたはDVS(Dynamic Vision Sensor)とも呼ばれ、受光素子を含むセンサで構成されるセンサアレイを含む。EVS110は、センサが入射する光の強度変化、より具体的にはオブジェクト表面の輝度変化を検出したときに、タイムスタンプ、センサの識別情報および輝度変化の極性の情報を含むイベント信号を生成する。EVS110が生成したイベント信号は、制御部200に入力される。制御部200は、イベント信号をメモリ210または記録媒体220に一時的に、または継続的に格納するか、または通信装置230を介してイベント信号を外部装置20に転送する。本実施形態では、バイブレータ120、スピーカー130、操作ボタン140、タッチセンサ150、ディスプレイ160、およびフラッシュ装置170も、制御部200の制御に従って動作するか、または入力信号を制御部200に送信する。従って、これらの装置の動作タイミングは、制御部200において既知である。
制御部200は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、および/またはFPGA(Field-Programmable Gate Array)などの処理回路によって構成される。メモリ210は、例えば各種のROM(Read Only Memory)、RAM(Random Access Memory)および/またはHDD(Hard Disk Drive)などのストレージ装置によって構成される。制御部200は、メモリ210に格納されたプログラムコードに従って以下で説明するような動作を実行する。プログラムコードは、記録媒体220からメモリ210に読み込まれてもよいし、通信装置230を介して外部装置20から受信されてメモリ210に格納されてもよい。記録媒体220は、例えば半導体メモリ、磁気ディスク、光ディスクまたは光磁気ディスクなどのリムーバブル記録媒体およびそのドライバを含む。通信装置230は、有線または無線の各種の通信インターフェースを含む。
本実施形態において電子機器10に含まれるバイブレータ120、スピーカー130、操作ボタン140、タッチセンサ150、ディスプレイ160、およびフラッシュ装置170は、物理的な入出力部の例である。より具体的には、バイブレータ120およびスピーカー130は、振動という力学的な出力を発生させる装置である。操作ボタン140およびタッチセンサ150は、接触型の入力装置であり、ユーザの指などによる接触および押圧のような力学的な入力を受け付ける装置である。ディスプレイ160およびフラッシュ装置170は、光という物理的な出力を発生させる装置である。以下で説明するようにEVS110が実装された電子機器10で上記のような物理的な入出力部が動作すると、EVS110の検出結果に影響が出る可能性がある。
まず、バイブレータ120は、電子機器10の筐体に振動を発生させるため、バイブレータ120が動作するとEVS110も振動する。上述の通りEVS110は入射する光の強度変化を検出するが、EVS110自体が振動するとオブジェクトとの位置関係の変化によって各画素における光の強度が変化するため、オブジェクト表面に輝度変化が発生していなくても各画素でイベント信号が生成される。スピーカー130についても同様に、スピーカー130が音声を出力する時に筐体に発生する振動によって、EVS110の各画素でイベント信号が生成される。このようなイベント信号は、例えばEVS110を用いて電子機器10に対するオブジェクト側の移動を検出する場合にはノイズになる。EVS110は例えばフレームベースのビジョンセンサに比べて時間解像度が高いため、このような筐体の振動による検出結果への影響が無視できない程度になる可能性がある。
次に、操作ボタン140およびタッチセンサ150は、ユーザの指などによる接触および押圧のような入力を受け付けたときに、電子機器10の筐体に変位または振動が発生する。上記の例と同様に、EVS110自体に変位または振動が発生すると、オブジェクト表面に輝度変化が発生していなくても各画素でイベント信号が生成される。
また、ディスプレイ160およびフラッシュ装置170は、発生させた光がオブジェクトに反射することによってEVS110の検出結果に影響を与える。この場合、オブジェクト表面には輝度変化が発生しているが、例えばEVS110を用いて電子機器10に対するオブジェクト側の移動を検出する場合には、上記の場合と同様にディスプレイ160またはフラッシュ装置170の光が反射したことによって生成されるイベント信号はノイズになる。
ここで、電子機器10は、IMU(Inertial Measurement Unit)を含んでもよい。IMUは、電子機器10の筐体に発生したモーションを検出するため、物理的な入出力部として扱われてもよい。あるいは、IMUは、上述した例のような物理的な入出力部、具体的には例えばバイブレータ120、スピーカー130、操作ボタン140またはタッチセンサ150が動作していることを検出する手段として用いられてもよい。
上記のような物理的な入出力部の動作によるEVS110の検出結果への影響への対処として、制御部200は、以下で説明するように物理的な入出力部の動作中はEVS110で生成されたイベント信号に所定のフラグを設定する。所定のフラグは、例えばイベント信号に任意の設定情報として付加される。メモリ210に格納されたり、通信装置230を介して外部装置20に転送されたりしたイベント信号では、所定のフラグによって、物理的な入出力部の動作中に生成されたイベント信号と、そうではないイベント信号とを判別することができる。以下、それぞれの例における制御部200の処理の例について説明する。
図2は、バイブレータ120、スピーカー130またはディスプレイ160が動作した場合の処理の例を示すフローチャートである。図示された例において、バイブレータ120、スピーカー130およびディスプレイ160は制御部200の制御に従って動作するため、制御部200はこれらの部分の動作とEVS110のイベント信号にフラグを設定する処理とを実質的に同期させることができる。具体的には、制御部200は、バイブレータ120、スピーカー130またはディスプレイ160を動作させることが決定した場合(ステップS101のYES)、バイブレータ120への制御信号、スピーカー130への音声信号またはディスプレイ160への画像信号の送信(ステップS102)と、イベント信号へのフラグの設定(ステップS103)とを実質的に同時に実行する。上記のステップS101~S103は繰り返し実行され、バイブレータ120、スピーカー130またはディスプレイ160の動作が継続している間、イベント信号へのフラグの設定が継続される。
図3は、操作ボタン140またはタッチセンサ150が物理的な入力を受け付けた場合の処理の例を示すフローチャートである。図示された例において、操作ボタン140またはタッチセンサ150が入力を受け付けたことは制御部200によって事後的に検出されるため、制御部200は入力が受け付けられた時間まで遡ってイベント信号にフラグを設定する。具体的には、制御部200は、操作ボタン140またはタッチセンサ150から入力信号を受信すると(ステップS201のYES)、メモリ210にバッファされているイベント信号のタイムスタンプを参照して時間を遡り、入力信号が受信された時刻の前後、所定の長さの区間でイベント信号にフラグを設定する(ステップS202)。所定の閾値よりも短い時間差で連続して入力信号が受信された場合(ステップS203のYES)、制御部200は、前にフラグを設定した区間と新たにフラグを設定する区間とを連続させてもよい(ステップS204)。操作ボタン140またはタッチセンサ150が連続的に入力を受け付けている場合、電子機器10の筐体は連続的に変位または振動している可能性が高いため、上記のステップS203,S204の処理によって一連の入力が終了するまではイベント信号に継続的にフラグを設定することができる。
図4は、フラッシュ装置170が動作した場合の処理の例を示すフローチャートである。フラッシュ装置170も制御部200の制御に従って動作するため、制御部200は上記の図2の例と同様にフラッシュ装置170の動作とEVS110のイベント信号にフラグを設定する処理とを実質的に同期させてもよい。これに対して、図示された例では、フラッシュ装置170の動作が瞬間的に実行されることから、図2の例とは異なる処理が実行される。具体的には、制御部200は、フラッシュ装置170を動作させることが決定した場合(ステップS301のYES)、フラッシュ装置170に制御信号を送信し(ステップS302)、フラッシュ装置170の動作中に生成されてメモリ210にバッファされているイベント信号を検証し(ステップS303)、イベント信号の時間密度が特異的である区間でイベント信号にフラグを設定する(ステップS304)。このような処理によって、フラッシュ装置170の動作によって影響を受けた区間、つまり前後の区間に比べて特異的に多くのイベント信号が生成された区間をより確実に特定してイベント信号にフラグを設定することができる。
以上で説明したような本発明の一実施形態の構成によって、電子機器10においてEVS110が他の装置、具体的には物理的な入出力部であるバイブレータ120、スピーカー130、操作ボタン140、タッチセンサ150、ディスプレイ160、およびフラッシュ装置170などが一緒に実装されている場合に、物理的な入出力部が動作したときのEVS110の検出結果への影響を低減し、例えば検出結果に含まれるノイズを低減した効果的な動作を実現することができる。
具体的には、生成されたイベント信号を電子機器10または外部装置20で利用するときに、フラグが設定されたイベント信号については信頼性が低いものとして扱ってもよい。例えば、フラグが設定されたイベント信号を無視してもよい。あるいは、フラグが設定されたイベント信号でフラグが設定されていないイベント信号とは異なる検出結果が示されている場合に無視してもよい。また、例えばスピーカー130やディスプレイ160のように継続的に動作する装置によってイベント信号が影響を受けている場合、所定の手順によってイベント信号を補正して利用してもよい。
以上、添付図面を参照しながら本発明の実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10…電子機器、120…バイブレータ、130…スピーカー、140…操作ボタン、150…タッチセンサ、160…ディスプレイ、170…フラッシュ装置、200…制御部、210…メモリ、220…記録媒体、230…通信装置、20…外部装置。
Claims (13)
- イベントベースのビジョンセンサと、
物理的な入出力部と、
前記入出力部の動作中は、前記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定する制御部と
を備える電子機器。 - 前記入出力部は、振動を発生させる装置を含む、請求項1に記載の電子機器。
- 前記振動を発生させる装置は、バイブレータを含む、請求項2に記載の電子機器。
- 前記振動を発生させる装置は、スピーカーを含む、請求項2または請求項3に記載の電子機器。
- 前記入出力部は、接触型の入力装置を含む、請求項1から請求項4のいずれか1項に記載の電子機器。
- 前記接触型の入力装置は、操作ボタンを含む、請求項5に記載の電子機器。
- 前記接触型の入力装置は、タッチセンサを含む、請求項5または請求項6に記載の電子機器。
- 前記入出力部は、光を発生させる装置を含む、請求項1から請求項7のいずれか1項に記載の電子機器。
- 前記光を発生させる装置は、ディスプレイを含む、請求項8に記載の電子機器。
- 前記光を発生させる装置は、フラッシュ装置を含む、請求項8または請求項9に記載の電子機器。
- 前記制御部は、前記イベント信号を外部装置に転送する、請求項1から請求項10のいずれか1項に記載の電子機器。
- イベントベースのビジョンセンサと、物理的な入出力部とを備える電子機器の制御方法であって、
前記入出力部の動作中は、前記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定するステップを含む、電子機器の制御方法。 - イベントベースのビジョンセンサと、物理的な入出力部とを備える電子機器の制御プログラムであって、
前記入出力部の動作中は、前記イベントベースのビジョンセンサで生成されたイベント信号に所定のフラグを設定する機能をコンピュータに実現させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/012944 WO2023181092A1 (ja) | 2022-03-22 | 2022-03-22 | 電子機器、電子機器の制御方法およびプログラム |
CN202280090440.3A CN118742874A (zh) | 2022-03-22 | 2022-03-22 | 电子设备以及用于电子设备的控制方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/012944 WO2023181092A1 (ja) | 2022-03-22 | 2022-03-22 | 電子機器、電子機器の制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023181092A1 true WO2023181092A1 (ja) | 2023-09-28 |
Family
ID=88100178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/012944 WO2023181092A1 (ja) | 2022-03-22 | 2022-03-22 | 電子機器、電子機器の制御方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN118742874A (ja) |
WO (1) | WO2023181092A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022490A (ja) * | 2016-08-01 | 2018-02-08 | 三星電子株式会社Samsung Electronics Co.,Ltd. | イベント信号処理方法及びその方法を遂行するイベント基盤センサー |
WO2020263230A1 (en) * | 2019-06-25 | 2020-12-30 | Hewlett-Packard Development Company, L.P. | Global motion suppression in an event-driven camera |
US20210136288A1 (en) * | 2019-11-05 | 2021-05-06 | Fotonation Limited | Event-sensor camera |
-
2022
- 2022-03-22 CN CN202280090440.3A patent/CN118742874A/zh active Pending
- 2022-03-22 WO PCT/JP2022/012944 patent/WO2023181092A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022490A (ja) * | 2016-08-01 | 2018-02-08 | 三星電子株式会社Samsung Electronics Co.,Ltd. | イベント信号処理方法及びその方法を遂行するイベント基盤センサー |
WO2020263230A1 (en) * | 2019-06-25 | 2020-12-30 | Hewlett-Packard Development Company, L.P. | Global motion suppression in an event-driven camera |
US20210136288A1 (en) * | 2019-11-05 | 2021-05-06 | Fotonation Limited | Event-sensor camera |
Also Published As
Publication number | Publication date |
---|---|
CN118742874A (zh) | 2024-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10097956B2 (en) | Method and device for determining distance between devices | |
JP2015166890A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP6096854B1 (ja) | 電子機器及び電子機器の動作方法 | |
CN108289270B (zh) | 一种扬声器及移动终端 | |
JP2010220202A (ja) | 撮像装置およびその制御方法 | |
EP3336659A1 (en) | Automatic haptic generation based on color features and motion analysis | |
US9894268B2 (en) | Electronic apparatus and recording control method of electronic apparatus | |
CN110012134A (zh) | 一种移动终端及其控制方法 | |
US10038812B2 (en) | Imaging apparatus, recording instruction apparatus, image recording method and recording instruction method | |
WO2023181092A1 (ja) | 電子機器、電子機器の制御方法およびプログラム | |
WO2020013647A1 (ko) | 전자 장치 및 전자 장치의 음량 조절 방법 | |
WO2001076232A1 (en) | Information processor | |
CN109451154B (zh) | 一种设置多媒体文件的方法及终端设备 | |
JPWO2008065843A1 (ja) | ズーム機能付き動画像撮影装置、画像処理及び表示方法とプログラム | |
CN116540862B (zh) | 触控操作响应方法和电子设备 | |
JP2018014111A (ja) | 電子機器 | |
CN111479026B (zh) | 图像形成装置以及事件检测系统 | |
JP2000350115A (ja) | 画像処理装置および方法、並びに媒体 | |
WO2015170492A1 (ja) | 通信装置、通信方法およびプログラム | |
JP5292244B2 (ja) | 入力装置 | |
CN112306278B (zh) | 电子装置控制方法以及应用电子装置控制方法的电子装置 | |
JP2008294712A (ja) | 携帯通信端末装置、及び、携帯通信端末装置におけるカメラ部混入異物除去方法 | |
KR101545328B1 (ko) | 이미지에 감성 효과를 부가할 수 있는 기능을 갖는 이동통신 단말기 및 그 동작 방법 | |
WO2022220049A1 (ja) | システム、情報処理方法および情報処理プログラム | |
JP2010170459A (ja) | テストシステム、テスト方法およびテストプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22933242 Country of ref document: EP Kind code of ref document: A1 |