JP2009290852A - Function checking apparatus for equipment and device - Google Patents

Function checking apparatus for equipment and device Download PDF

Info

Publication number
JP2009290852A
JP2009290852A JP2008176355A JP2008176355A JP2009290852A JP 2009290852 A JP2009290852 A JP 2009290852A JP 2008176355 A JP2008176355 A JP 2008176355A JP 2008176355 A JP2008176355 A JP 2008176355A JP 2009290852 A JP2009290852 A JP 2009290852A
Authority
JP
Japan
Prior art keywords
image
input
inspection target
function check
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008176355A
Other languages
Japanese (ja)
Inventor
Yoshio Suzuki
祥夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Novel Corp
Original Assignee
Japan Novel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Novel Corp filed Critical Japan Novel Corp
Priority to JP2008176355A priority Critical patent/JP2009290852A/en
Publication of JP2009290852A publication Critical patent/JP2009290852A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a checking apparatus easily and automatically determining functions of operating buttons provided in equipment such as a cellular phone. <P>SOLUTION: A checking apparatus includes: an adapter unit 2 for setting a cellular phone 1 thereon; a camera 4 which images an LCD panel 3 that is a display part of the cellular phone 1, to capture an image; a plunger unit 7 including a plurality of releases 6 for pressing one of key buttons 5 of the cellular phone 1; a computer 8 for possibility decision or the like of operation of the plunger unit 7 and display contents on the LCD panel 3; and a monitor 9 for displaying an image of the LCD panel 3 or an image based on a signal from the computer 8. A still image, an animation image, audio output obtained by pressing the key buttons 5 using the releases 6 are compared with a prescribed expected image and expected audio to determine functions of the cellular phone 1. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、携帯電話等の機器の操作ボタンや蓋の開閉機構が設計通りに機能するかどうかを判定するための機器、装置の機能チェック装置に関する。   The present invention relates to a function check device for a device and an apparatus for determining whether an operation button or a lid opening / closing mechanism of a device such as a mobile phone functions as designed.

外部からの入力に対応して外部に対して表出させる形態や動作が変化する、例えば携帯電話やPHS、PDA、ゲーム機、ノートブック型のパーソナルコンピュータ、カーナビゲーション装置、パネルディスプレイ装置等の機器には周知のように多数の操作ボタン、有線・無線の入力端子が設けられており、使用者は目的に応じて適宜これら操作ボタンを操作したり、信号を入力する。また、これらの機器、装置においては、LCD等のいわゆるパネルディスプレイ(液晶を用いたものには限定されない)を用いた表示部と操作ボタン等を備えた操作部とをヒンジで連結して折り畳み式にしたものや、面表示装置自体が操作ボタン、スイッチを兼ねる機能を有するものが増えている。   The form and operation to be exposed to the outside change in response to the input from the outside, such as a mobile phone, PHS, PDA, game machine, notebook personal computer, car navigation device, panel display device, etc. As is well known, a large number of operation buttons and wired / wireless input terminals are provided, and the user appropriately operates these operation buttons or inputs signals according to the purpose. Further, in these devices and apparatuses, a folding unit is formed by connecting a display unit using a so-called panel display such as an LCD (not limited to one using liquid crystal) and an operation unit including operation buttons by a hinge. There are an increasing number of devices and the surface display device itself having a function of operating buttons and switches.

これらのような機器や装置、例えば携帯電話やPHSでは、単に電話をかけるためのダイアリングや、文字入力に用いられるだけでなく、電話機やコンピュータとしての種々の設定のためにも用いられるようになっているが、その設定には、例えばオートロック、通話料金表示、使用時間表示、着信音設定、使用者情報設定、使用言語設定等のように、かなり多様かつ複雑なことが可能になっている。また、表示部にタッチパネルを用いているものでは、ハードウェアの操作ボタンだけでなく、表示部にソフトウェアで表示した操作ボタンによっても上述のような操作を可能としている。   Devices and devices such as these, such as mobile phones and PHS, are not only used for dialing for dialing and character input, but also for various settings as a telephone or computer. However, the setting can be quite diverse and complicated, such as auto lock, call charge display, usage time display, ringtone setting, user information setting, language setting, etc. Yes. In the case where a touch panel is used for the display unit, the above-described operation can be performed not only by hardware operation buttons but also by operation buttons displayed by software on the display unit.

なお以下では、特にことわらなければ、単に操作ボタン等の操作対象物を記載する場合には、ハードウェアによるものだけでなく、ソフトウェアで表示した操作可能な部位をも含む。   In the following description, unless otherwise specified, when an operation object such as an operation button is simply described, it includes not only hardware but also operable parts displayed by software.

上述のように、携帯電話やディスプレイ利用機器の製造者は、出荷前にハードウェアによる操作であれ、ソフトウェアにより表示させたものを用いての走査であれ、これらの設定操作、動作を不具合がなく行えるか否かを検査、判定、確認しておくことが求められるようになってきている。   As described above, a manufacturer of a mobile phone or a display-use device has no problem in setting operation and operation, whether it is a hardware operation or a scan using software displayed before shipment. It has been demanded to check, determine and confirm whether or not it can be performed.

本願発明者は、従来手作業に近い状態で行われていた携帯電話等の機器におけるこの種の判定、確認作業を機械的にかつシステマティックに行える発明を提案した(特許文献1、2参照)。   The inventor of the present application has proposed an invention that can perform this kind of determination and confirmation work mechanically and systematically in a device such as a mobile phone, which has conventionally been performed in a state close to manual work (see Patent Documents 1 and 2).

特許第3714660号公報Japanese Patent No. 3714660 国際公開WO2005/071930号公報International Publication WO2005 / 071930

本発明は、上述した従来の発明をさらに改良させてなしたもので、携帯電話やPHS、PDA、ゲーム機、ノートブック型のパーソナルコンピュータ、カーナビゲーション装置、パネルディスプレイ装置等の検査対象機器又は検査対象装置の設定動作の可否をほぼ自動的にかつ多機能にわたって判定できるようにした機器、装置の機能チェック装置を提供することを目的とする。
また、設計通りに期待される画像等の出力が得られるかどうかのみならず、期待していない画像等の出力が表出するか否かも判定できるようにした機器、装置の機能チェック装置を提供することを目的とする。
The present invention is a further improvement of the above-described conventional invention, and is a device to be inspected such as a mobile phone, PHS, PDA, game machine, notebook personal computer, car navigation device, panel display device, or inspection. It is an object of the present invention to provide a function check device for equipment and devices that can determine whether or not a setting operation of a target device can be performed almost automatically and over multiple functions.
In addition, it is possible to provide a function check device for equipment and devices that can determine not only whether an expected output of an image or the like can be obtained as designed, but also whether an output of an unexpected image or the like is displayed. The purpose is to do.

本発明の機器、装置の機能チェック装置は、上記目的を達成するために、外部からの入力に対応して外部に対して表出させる形態や動作が変化する出力手段を備えた一以上の検査対象機器又は検査対象装置をチェックするための機器、装置の機能チェック装置であり、前記検査対象機器又は検査対象装置の前記外部表出形態、動作状態を擬似的又は実際的に発生させて前記検査対象機器又は検査対象装置の機能をチェックするための機器、装置の機能チェック装置において、前記外部からの入力に対応する擬似入力を前記検査対象機器又は検査対象装置に対して印加する擬似入力手段、該擬似入力手段による入力に応じて前記検査対象機器又は検査対象装置の前記出力手段が生じさせる前記チェック対象となる出力を検出するチェック対象出力検出手段、前記擬似入力手段による入力手順を指定可能な擬似入力手順設定手段、及び前記擬似入力手順設定手段で指定した手順に応じて入力される擬似入力による前記チェック対象出力検出手段の動作又は出力と、前記擬似入力に対応する実際の入力による前記検査対象機器又は検査対象装置の前記外部表出形態、動作状態の予想される期待値との整合性を確認する確認手段、とを備えることを特徴とする。   In order to achieve the above object, the function check device of the device or apparatus of the present invention is provided with one or more inspections provided with output means for changing the form and operation to be exposed to the outside in response to the input from the outside. A device for checking a target device or a device to be inspected, a function check device of the device, and generating the external representation form and operation state of the device to be inspected or the device to be inspected in a pseudo or practical manner and performing the inspection In the device for checking the function of the target device or the device to be inspected, the device function check device, a pseudo input means for applying a pseudo input corresponding to the input from the outside to the device to be inspected or the device to be inspected, A check target output for detecting the output to be checked generated by the output means of the inspection target device or the inspection target device according to the input by the pseudo input means. The operation or output of the check target output detection means by the pseudo input inputted according to the detection means, the pseudo input procedure setting means capable of designating the input procedure by the pseudo input means, and the procedure designated by the pseudo input procedure setting means And confirmation means for confirming consistency with the expected appearance value of the operation state and the external representation form of the inspection target device or inspection target device by the actual input corresponding to the pseudo input. Features.

また、請求項2に係るものは、請求項1の機器、装置の機能チェック装置において、前記擬似入力手段を前記検査対象機器又は検査対象装置毎に配するとともに、前記確認手段を前記擬似入力手段が複数であっても共通化してなることを特徴とする。   According to a second aspect of the present invention, in the function check device of the device or apparatus of the first aspect, the pseudo input unit is arranged for each of the inspection target device or the inspection target device, and the confirmation unit is the pseudo input unit. It is characterized in that even if there are plural numbers, they are shared.

また、請求項3に係るものは、請求項1または2の機器、装置の機能チェック装置において、前記確認手段は、前記整合性の確認にファジー制御による判定を行う手段を備えることを特徴とする。   According to a third aspect of the present invention, in the function check device for the device or apparatus according to the first or second aspect, the confirmation unit includes a unit for performing a determination by fuzzy control to confirm the consistency. .

また、請求項4に係るものは、請求項1ないし3のいずれかの機器、装置の機能チェック装置において、前記検査対象機器又は検査対象装置が有する表示手段に、前記擬似入力手順設定手段で指定した手順に応じて入力される擬似入力による前記チェック対象出力検出手段の動作又は出力を表示させ、前記表示手段に表示された内容を認識し、ターゲットとする内容の位置に応じて前記擬似入力手段による擬似入力の前記検査対象機器又は検査対象装置への印加位置を可変させる認識手段を有することを特徴とする。   Further, according to a fourth aspect of the present invention, in the function check device of the device or apparatus according to any one of the first to third aspects, the pseudo input procedure setting unit specifies the display unit included in the inspection target device or the inspection target device. The operation or output of the check target output detection means by the pseudo input input according to the procedure performed is displayed, the content displayed on the display means is recognized, and the pseudo input means is determined according to the position of the target content. It has the recognition means which varies the application position to the said inspection object apparatus or inspection object apparatus of the pseudo input by.

また、請求項5に係るものは、請求項1ないし4のいずれかの機器、装置の機能チェック装置において、前記擬似入力手段が、或る擬似入力の一の手順の実行中に、予め指定した周期ごと又は予め指定した順序で前記実行中の手順と異なる手順を実行可能であることを特徴とする。   Further, according to a fifth aspect of the present invention, in the function check device for the device or apparatus according to any one of the first to fourth aspects, the pseudo input means designates in advance during execution of a procedure of a certain pseudo input. It is characterized in that a procedure different from the procedure being executed can be executed every cycle or in a predetermined order.

また、請求項6に係るものは、請求項1ないし5のいずれかの機器、装置の機能チェック装置において、前記擬似入力手段が、音声入力手段と、該音声入力手段から入力された音声の内容を自動判定する音声判定手段を有し、該音声判定手段により前記外部からの入力事象に対応する擬似入力を前記検査対象機器又は検査対象装置に対して印加することを特徴とする。   Further, according to a sixth aspect of the present invention, in the function check device for the device or apparatus according to any one of the first to fifth aspects, the pseudo input means is a voice input means and the contents of the voice input from the voice input means. And a voice determination unit that applies a pseudo input corresponding to the input event from the outside to the inspection target device or the inspection target device.

また、請求項7に係るものは、請求項1ないし5のいずれかの機器、装置の機能チェック装置において、前記検査対象機器又は検査対象装置に対して使用される組込みシステム向けの開発支援を行うCASEツールで作成した状態が変化する事象に基づいて少なくとも前記擬似入力手段を協調動作させる手段と、該少なくとも前記擬似入力手段による協調動作に基づいて、前記検査対象機器又は検査対象装置に対する前記擬似入力手段による入力手順を作成する手段を有することを特徴とする。   Further, according to a seventh aspect of the present invention, in the function check device of the device or apparatus according to any one of the first to fifth aspects, development support for an embedded system used for the inspection target device or the inspection target device is performed. A means for cooperatively operating at least the pseudo input means based on an event generated by the CASE tool and a pseudo input to the inspection target device or inspection target apparatus based on at least the cooperative operation by the pseudo input means It has the means to create the input procedure by a means, It is characterized by the above-mentioned.

また、請求項8に係るものは、請求項4ないし7のいずれかの機器、装置の機能チェック装置において、前記検査対象機器又は検査対象装置が有する表示手段に表示された内容を撮像して画像を得る撮像手段と、該撮像手段に対して前記検査対象機器又は検査対象装置を所定状態にかつ交換可能に搭載するための搭載手段を有することを特徴とする。   Further, according to an eighth aspect of the present invention, there is provided the function check device of the device or apparatus according to any one of the fourth to seventh aspects, wherein the content displayed on the display means included in the inspection target device or the inspection target device is imaged. And an installation unit for mounting the inspection target device or the inspection target device in a predetermined state in a replaceable manner on the imaging unit.

また、請求項9に係るものは、請求項1ないし8のいずれかの機器、装置の機能チェック装置において、前記検査対象機器又は検査対象装置が、音声入力手段、画像信号入力手段、有線信号入力手段、電波、赤外線を含む電磁波による無線入力手段のいずれかを備えるものであることを特徴とする。   According to a ninth aspect of the present invention, there is provided the function check device of the device or apparatus according to any one of the first to eighth aspects, wherein the inspection target device or the inspection target device is an audio input means, an image signal input means, a wired signal input. Any one of means, radio input means using electromagnetic waves including radio waves and infrared rays is provided.

また、請求項10に係るものは、請求項1ないし9のいずれかの機器、装置の機能チェック装置において、前記アダプタに、集音マイク及び/又はスピーカを搭載してなることを特徴とする。   According to a tenth aspect of the present invention, in the device or device function check device according to any one of the first to ninth aspects, a sound collecting microphone and / or a speaker is mounted on the adapter.

また、請求項11に係るものは、請求項1ないし10のいずれかの機器、装置の機能チェック装置において、前記アダプタが、搭載した前記検査対象機器又は検査対象装置の少なくとも被操作部位を覆うとともに、前記擬似入力手段による入力を許す穴又は開口を有することを特徴とする。   Further, according to an eleventh aspect of the present invention, in the function check device for the device or apparatus according to any one of the first to tenth aspects, the adapter covers at least an operated part of the mounted inspection target device or inspection target device. And a hole or opening that allows input by the pseudo input means.

また、請求項12に係るものは、請求項7ないし11のいずれかの機器、装置の機能チェック装置において、前記撮像手段が、静止画及び/又は動画を得るためのものであることを特徴とする。   According to a twelfth aspect of the present invention, in the function check device of the device or apparatus according to any one of the seventh to eleventh aspects, the imaging means is for obtaining a still image and / or a moving image. To do.

また、請求項13に係るものは、請求項7ないし12のいずれかの機器、装置の機能チェック装置において、前記搭載手段が、複数の移動可能なあるいは位置固定の支持部材で前記検査対象機器又は検査対象装置を保持するために、着脱可能な弾性部材備えることを特徴とする。   Further, according to a thirteenth aspect of the present invention, in the function check apparatus of the device or apparatus according to any one of the seventh to twelfth aspects, the mounting means is a plurality of movable or position-fixed support members, In order to hold the apparatus to be inspected, an detachable elastic member is provided.

本発明に係る機器、装置の機能チェック装置は、携帯電話やパネルディスプレイ装置等の検査対象機器、検査対象装置が種々の動作を設計通りに行えるかどうかをほぼ自動的に判定できかつ多機能な判定が行える。   The device and device function check device according to the present invention is capable of almost automatically determining whether or not the device to be inspected, such as a mobile phone or a panel display device, can perform various operations as designed, and is multifunctional. Judgment can be made.

以下本発明を実施するための最良の形態について図面に示す実施例を参照して説明する。なお以下では携帯電話やPDA等を検査対象機器とする例について説明するが、既述の機器、装置、及びその他類似の構成を有する機器、装置についても本発明を適用できることは明らかであるので、そのような機器についての説明は省略する。   The best mode for carrying out the present invention will be described below with reference to the embodiments shown in the drawings. In the following, an example in which a mobile phone, a PDA, or the like is used as a device to be inspected will be described. However, it is clear that the present invention can be applied to the above-described devices, devices, and other devices and devices having similar configurations. Description of such devices is omitted.

以下本発明の一実施例を説明する。なお、図示し説明する実施例は、外部からの物品接触による入力事象として、例えばボタンの押下、つまみの回転、タッチパネルへの接触・描画入力、音声入力、カメラ等からの画像信号入力を含む外部入力、また、コネクタからの有線信号入力、電波、赤外線による無線入力に対応して内部状態が変化し、内部状況の変化に伴い、画像、音声を含む外部出力を送出する出力事象を変化させる出力手段を備えた機器を検査対象とする。   An embodiment of the present invention will be described below. The illustrated and described embodiments include external events including, for example, button presses, knob rotation, touch panel touch / draw input, voice input, image signal input from a camera, etc. The output changes to change the internal event corresponding to the input, wired signal input from the connector, radio input by radio wave or infrared, and the output event to send the external output including image and sound according to the change of the internal situation The equipment provided with the means is the inspection object.

また、以下では、擬似的又は実際的に発生させて前記検査対象機器又は検査対象装置の機能をチェックする手段、すなわち、外部入力に対応する出力を前記機器に対して発生する擬似入力手段として複数の操作ボタンの一つを押下可能な押下手段を有するボタン操作手段を例としているが、これは適宜の自由度(例えば、3軸、6軸)を有するロボットで、複数のボタンを順次押下するものでも、多数のボタン操作手段を有するものでもいずれであってもよい。また図示の例のロボットには限定されず、さらには平面的に配設されたボタンを操作するものだけでなく、特に多軸のロボットを使用して、立体的に配置されたボタンやつまみを的確に操作することができるようにしたものも含み、いずれにしても図示の例のものには限定されない。   In the following, a plurality of means for checking the function of the inspection target device or the inspection target device generated in a pseudo or practical manner, that is, a plurality of pseudo input means for generating an output corresponding to an external input to the device. The button operation means having a pressing means capable of pressing one of the operation buttons is taken as an example, but this is a robot having an appropriate degree of freedom (for example, 3 axes, 6 axes) and sequentially pressing a plurality of buttons. It may be any one having a plurality of button operation means. In addition, the robot is not limited to the illustrated robot, and is not limited to operating buttons arranged in a plane. In particular, using a multi-axis robot, buttons and knobs arranged in three dimensions are used. Including any device that can be operated accurately, and in any case, the present invention is not limited to the illustrated example.

さらに、検査のための擬似入力を検査対象機器又は検査対象装置に対して印加する擬似入力手段は、検査対象機器が、つまみの回転、タッチパネルへの接触・描画入力、音声入力、カメラ等からの画像信号入力を含む外部入力、また、コネクタからの有線信号入力、電波、赤外線による無線入力前記外部入力である場合には、これらに対応する出力をなすものとすればよい。   Furthermore, the pseudo input means for applying the pseudo input for the inspection to the inspection target device or the inspection target device is such that the inspection target device is operated from the rotation of the knob, the touch / drawing input to the touch panel, the voice input, the camera, etc. In the case of an external input including an image signal input, a wired signal input from a connector, a radio input using radio waves or infrared rays, or the external input described above, an output corresponding to these may be made.

図1は、本発明に係る機器、装置の機能チェック装置の一実施例を概念的に示す斜視図である。本実施例装置は、判定、検査しようとする評価対象機(図示の例ではPDA)1を予め定めた状態にセットし、PDA1の表示部であるLCDパネル3を撮像し、LCDパネル3の画像を得るカメラ4、PDA1のLCDパネル3に表示される操作ボタン画像又はPDA1が備える機械的操作ボタン(以下では特に必要がないかぎりこれらを総称してキーボタンという。)5・・・の一つを、押し下げ可能なレリーズ6を押下手段として複数有するプランジャーユニット7により押し下げ、プランジャーユニット7の動作をコンピュータ8で制御するとともに、この動作制御に対応するLCDパネル3の表示内容の可否を判断する等の制御を行う。図中9はモニタで、カメラ4で得たLCDパネル3の画像やコンピュータ8からの信号に基づく画像の表示手段となる。なおコンピュータ8は、ハードウェアとしてはビデオキャプチャーボード、入出力用ボード、サウンドボード、イーサネット(登録商標)ボードあるいはこれらと同等構成品を備えるものとし、ソフトウェアとして、後述する携帯電話自動評価システムソフトならびにOSソフト、そして必要に応じてテキストエディタ、ワードプロセッサ、データベースソフト等を内蔵するものが好ましい。またキーボード、マウス、ネットワーク端子(端末対向テスト用)、プリンタ等をもシステム構成に含ませることができる。なお図中10はプランジャーユニット7を駆動するためのロボットで、図示の例ではXY軸移動タイプでレリーズ6も単一のものであるが、後述するように、レリーズ6に代わるプランジャーを多数備えたユニットも使用される。したがって、ロボット10も図示のタイプのものに限定されず種々公知のロボットを採用できる。   FIG. 1 is a perspective view conceptually showing an embodiment of a function check apparatus for devices and apparatuses according to the present invention. The apparatus according to the present embodiment sets an evaluation object machine (PDA in the illustrated example) 1 to be determined and inspected in a predetermined state, images the LCD panel 3 that is a display unit of the PDA 1, and displays an image of the LCD panel 3. One of the operation buttons image displayed on the LCD panel 3 of the PDA 1 or the mechanical operation buttons provided in the PDA 1 (hereinafter collectively referred to as key buttons unless otherwise required) 5. Is depressed by a plunger unit 7 having a plurality of depressible release 6 as a depressing means, and the operation of the plunger unit 7 is controlled by the computer 8 and whether or not the display content of the LCD panel 3 corresponding to this operation control is determined. Control is performed. In the figure, reference numeral 9 denotes a monitor which serves as an image display means based on an image of the LCD panel 3 obtained by the camera 4 and a signal from the computer 8. The computer 8 is provided with a video capture board, an input / output board, a sound board, an Ethernet (registered trademark) board, or an equivalent component as hardware. It is preferable to incorporate OS software and, if necessary, a text editor, word processor, database software, and the like. A keyboard, mouse, network terminal (for terminal facing test), printer, and the like can also be included in the system configuration. In the figure, reference numeral 10 denotes a robot for driving the plunger unit 7. In the illustrated example, the XY-axis movement type is a single release 6; however, as will be described later, many plungers can be substituted for the release 6. The provided unit is also used. Therefore, the robot 10 is not limited to the illustrated type, and various known robots can be employed.

図2は検査対象機器を携帯電話とした場合に使用するアダプタユニット2とレリーズ6に代わるプランジャーを多数備えたプランジャーユニット20を示す斜視図である。携帯電話1は、図示の例では折り畳み型のもので、LCDパネル3を有する表示部11と、キーボタン5を有する操作部12とからなるが、検査対象となる携帯電話としてはこのタイプのものに限定されず、表示部11と操作部12に対してそれぞれ外側からアクセスできればストレートタイプのもの、フリップタイプのもの、等どのようなものでも対象とすることができる。なお本発明は、対象機器を携帯電話1に限るものではなく、PHS、PDA、ゲーム機、ノートブック型のパーソナルコンピュータ、カーナビゲーション装置、パネルディスプレイ装置等の機器であり、いくつかの操作ボタンが設けられていて、これらを操作するようになっているものであれば種々の機器に適用できる。   FIG. 2 is a perspective view showing a plunger unit 20 having a plurality of plungers in place of the adapter unit 2 and the release 6 used when the inspection target device is a mobile phone. The cellular phone 1 is a foldable type in the illustrated example, and includes a display unit 11 having an LCD panel 3 and an operation unit 12 having key buttons 5, and this type of cellular phone to be inspected is of this type. However, the display unit 11 and the operation unit 12 can be any object such as a straight type or a flip type as long as they can be accessed from the outside. The present invention is not limited to the mobile phone 1, but is a device such as a PHS, PDA, game machine, notebook personal computer, car navigation device, panel display device, etc. Any device that is provided and can be operated can be applied to various devices.

またアダプタユニット2は背面カメラ2aを備えており、この背面カメラ2aによって折りたたみ式の携帯電話1の背面(折りたたんだ状態では正面)に位置することになる図示しない液晶ディスプレイのテストも自動で行えるようになっている。   The adapter unit 2 also includes a rear camera 2a. The rear camera 2a can automatically test a liquid crystal display (not shown) that is positioned on the rear surface of the foldable mobile phone 1 (front surface in the folded state). It has become.

このアダプタユニット2は、折り畳み型の携帯電話1のLCDパネル3の表面をカメラ4の光軸に対して垂直面をなすようにセットするためのベース部21と、その状態でカメラ4の光軸に対して所定の角度をなす携帯電話1の操作部12をセットできる傾斜部22と、図示は省略するが、傾斜板22との間に携帯電話1の操作部12を挟んだ状態で並行またはほぼ並行にセットするレリーズガイドパネル23、これらを支持する一対の側板等からなる。なおストレートタイプやフリップタイプの携帯電話等においては、図示の例のようにベース板21と傾斜板22に角度を付けて構成する必要がないことが多いので、アダプタユニット2の構成は図示の例に限定されず、対象機器の形状、構造に合わせて形成すればよい。なおレリーズガイドパネル23は、評価対象とする携帯電話1の操作部12のキーボタン5の数等に合わせてレリーズ6を挿入する孔を有するとともにかつ対象機器に合わせて交換できるようになっている。またレリーズガイドパネル23には、携帯電話1のマイク(図示せず)に対応させた位置に孔(図示せず)を設け、この孔の位置にスピーカを取り付けできるようにしてある。   The adapter unit 2 includes a base portion 21 for setting the surface of the LCD panel 3 of the foldable mobile phone 1 so as to be perpendicular to the optical axis of the camera 4, and the optical axis of the camera 4 in this state. In the state where the operation unit 12 of the mobile phone 1 is sandwiched between the inclined unit 22 and the inclined plate 22, the operation unit 12 of the mobile phone 1 can be set at a predetermined angle with respect to The release guide panel 23 is set substantially in parallel, and includes a pair of side plates that support these. In a straight type or flip type mobile phone or the like, there is often no need to configure the base plate 21 and the inclined plate 22 with an angle as in the illustrated example, so the configuration of the adapter unit 2 is the same as the illustrated example. It is not limited, What is necessary is just to form according to the shape and structure of object apparatus. The release guide panel 23 has a hole for inserting the release 6 in accordance with the number of the key buttons 5 of the operation unit 12 of the mobile phone 1 to be evaluated, and can be exchanged according to the target device. . The release guide panel 23 is provided with a hole (not shown) at a position corresponding to the microphone (not shown) of the mobile phone 1, and a speaker can be attached to the position of this hole.

なお、既に述べたプランジャーユニットや、XYタイプのロボットは、評価対象機器としては最も多く利用されるものとなっているが、プランジャーユニットタイプのロボットを使用すると、同時押し、早押し、開閉、背面液晶のテストが行える。一方、XYタイプのロボットを使うと評価機器が変わっても簡単に取り外し、固定ができ、機体のタイプの変更がある場合にもすぐに対応できる。またなお、携帯電話の開閉センサーを利用して、擬似的に携帯電話を閉じた状態を作り出すことで開閉テストを行うこともできる。さらに、基地局シミュレータと連携することで、発呼、着呼、割り込み着信、電波受信状態変化、海外端末の検査も行える。   The plunger unit and XY type robot already described are the most frequently used devices for evaluation. However, when a plunger unit type robot is used, simultaneous pressing, quick pressing, opening and closing, You can test the rear LCD. On the other hand, if an XY type robot is used, it can be easily removed and fixed even if the evaluation equipment changes, and it can respond immediately when there is a change in the type of aircraft. In addition, an open / close test can be performed by using a mobile phone open / close sensor to create a pseudo closed state of the mobile phone. Furthermore, by linking with the base station simulator, it is possible to make outgoing calls, incoming calls, incoming calls with interruptions, changes in radio wave reception status, and inspection of overseas terminals.

図3、図4は、携帯電話を保持するためのアダプタユニット2の変形例を概念的に示す斜視図であり、図3は、複数の移動可能なあるいは位置固定の支持部材101で、蓋部102を開いた携帯電話1を保持し、着脱可能なゴムヒモなどの弾性部材103でホールド性を高め、携帯電話1を押さえた状態を示している。   3 and 4 are perspective views conceptually showing a modification of the adapter unit 2 for holding the mobile phone. FIG. 3 shows a plurality of movable or position-fixing support members 101 with a lid portion. The mobile phone 1 with the open 102 is held, the holdability is improved by an elastic member 103 such as a removable rubber strap, and the mobile phone 1 is pressed.

複数の支持部材101は、位置固定の一対のガイド支持部材101a、101aと、それらの軸線方向で位置を可変とするようにスライド可能に差し渡して取り付けた二つの親スライダ101b、101bと、それぞれの親スライダ101b上にそれらの軸線方向で、すなわち親スライダ101bのスライド方向とは直角に交叉する方向でスライド可能に取り付けた子スライダ101cと、親スライダ101bと平行でかつ位置固定にガイド支持部材101a、101a間に設けた保持用支持部材101dから構成してあり、親スライダ101bが携帯電話1の底面を支持し、子スライダ101cが携帯電話1の側面を支え、保持用支持部材101dが携帯電話1の保持性を向上させる支持部材として構成してある。   The plurality of support members 101 include a pair of guide support members 101a and 101a whose positions are fixed, and two parent sliders 101b and 101b that are slidably mounted so as to be slidable in their axial directions. A child slider 101c slidably mounted on the parent slider 101b in the axial direction thereof, that is, in a direction perpendicular to the sliding direction of the parent slider 101b, and a guide support member 101a parallel to the parent slider 101b and fixed in position. , 101a, a supporting member 101d for holding, the parent slider 101b supports the bottom surface of the mobile phone 1, the child slider 101c supports the side surface of the mobile phone 1, and the supporting member 101d for holding is a mobile phone. 1 is configured as a support member that improves the retaining property of 1.

なお、図示の実施例では、子スライダ101cを載せ得る親スライダ101bが2つしか設けていないが、例えばこれを4つに増やし、そのうち一つで携帯電話下部の高さを可変に支え、もう一つで携帯電話1の本体1aではなく蓋部102のLCDパネル3部分側の側部を押さえるものとする。残りの2つは図示の実施例と同じ役目をはたす構成とするとよい。   In the illustrated embodiment, only two parent sliders 101b on which the child slider 101c can be placed are provided. For example, the number is increased to four, and one of them is variably supporting the height of the lower part of the mobile phone. It is assumed that one side is not the main body 1a of the mobile phone 1 but the side of the lid 102 on the LCD panel 3 portion side. The remaining two may be configured to perform the same role as the illustrated embodiment.

また子スライダ101cのスライド部品を付け替え得るようにし、以下の3種類を必要に応じて交換可能とすることもできる。
(1)携帯電話1の高さ方向とサイド方向の両方を押さえるもの(図示の実施例)
(2)携帯電話1のLCDパネル3部分のサイドを押さえるもの(様々な高さのLCDパネル3部分が考えられるので、それらに対応できるように、例えば10cm程の高さのあるものにするとよい)
(3)携帯電話1の高さ方向のみを支えるもの(図示の実施例と同じ高さで、携帯電話1の特に本体部分1aの側面に設けられるサイドボタンやケーブルの邪魔にならないような形状とすることが好ましい)
Also, the slide parts of the child slider 101c can be replaced, and the following three types can be exchanged as necessary.
(1) What holds down both the height direction and the side direction of the mobile phone 1 (the illustrated embodiment)
(2) Holding the side of the LCD panel 3 portion of the cellular phone 1 (LCD panel 3 portions of various heights are conceivable, so that the height is about 10 cm, for example, so as to be able to cope with them. )
(3) Supporting only the height direction of the mobile phone 1 (with the same height as the embodiment shown in the figure, in a shape that does not obstruct side buttons or cables provided on the side of the main body portion 1a of the mobile phone 1 in particular. Preferably)

また上述のようなサイドボタンを押しても先端部品がぶつからないように、子スライダ101cの高さを例えば1.5cm程高くしても良い。   Further, the height of the child slider 101c may be increased by, for example, about 1.5 cm so that the tip part does not collide even when the side button as described above is pressed.

また子スライダ101cは、例えばノギスと同様の構造のものとすることができるが、その構造の場合、歯車を使用しているため携帯電話1を挟んだときに少しガタがあり、片方を固定しても反対側ががたついてしまうことがあり得る。サイドボタンを押した場合は少しのガタがカメラ画像などに影響するので、しっかりと携帯電話1の両サイドを固定する必要がある。例えば子スライダ101cをネジ止めしてその位置を固定する構造とすることができるが、一つのネジでは上述のようなガタを無くすことが難しい場合は、ネジ止めを2箇所で行ってもよい。   The child slider 101c may have a structure similar to that of, for example, a vernier caliper. However, in this structure, since a gear is used, there is a slight backlash when the mobile phone 1 is sandwiched, and one side is fixed. However, the other side can be rattled. When the side button is pressed, a slight backlash affects the camera image and the like, so it is necessary to firmly fix both sides of the mobile phone 1. For example, the child slider 101c can be screwed to fix the position. However, when it is difficult to eliminate the above-described play with one screw, the screwing may be performed at two locations.

上述のように、子スライダ101cをガイド支持部材101a、101a間のセンターに合わせるためのテンションをかけるために、また携帯電話1のLCDパネル3側が上がらないように、上からゴムヒモなどの弾性部材103で押さえつけるように固定しているが、弾性部材103は、子スライダ101bを構成する部品101baに穴を開け、ここに弾性部材103に設けた球状等の部材を嵌入させて引っ掛ける。全ての子スライダ101cの部品にこの穴101bbを空けておき、弾性部材103をどこにでも取り付けられるようにするとよい。なお図示の実施例ではゴムヒモなどの弾性部材103を用いているが、これに代えてバネを採用することもできる。   As described above, the elastic member 103 such as rubber straps is used from above so as to apply tension to align the child slider 101c with the center between the guide support members 101a and 101a and so that the LCD panel 3 side of the mobile phone 1 does not rise. The elastic member 103 has a hole formed in the component 101ba constituting the child slider 101b, and a spherical member or the like provided on the elastic member 103 is inserted and hooked there. It is preferable to leave the hole 101bb in all the parts of the child slider 101c so that the elastic member 103 can be attached anywhere. In the illustrated embodiment, the elastic member 103 such as rubber string is used, but a spring may be used instead.

子スライダ101cの開く横幅は、戴置する携帯電話1が大きいものでも固定できるようすると、近年続々と発売されているPDAタイプのものや、ターンタイプと称されてLCDパネル3を有する表示部11が横向きに回転するタイプ等のような種々のタイプのものにも対応できるようになる。   The horizontal width of the child slider 101c can be fixed even if the mobile phone 1 to be placed is large, so that it can be fixed in a PDA type which has been released one after another, or a display unit 11 having an LCD panel 3 called a turn type. It becomes possible to deal with various types such as a type that rotates horizontally.

なお、固定用のネジにはPCのケースに使われているような、ドライバーを使わなくても締結が可能なネジを採用することが好ましい。また子スライダ101cの位置を変える場合には、ネジが完全に外れなくても緩めるだけで移動できるようにすることが好ましい。また、親スライダ101bに目盛を振るなどして、子スライダ101cを所定の位置に再度固定できるようにすることが望ましい。   In addition, it is preferable to employ | adopt the screw which can be fastened even if it does not use a driver like a PC case as a fixing screw. Further, when the position of the child slider 101c is changed, it is preferable that the child slider 101c can be moved only by being loosened even if the screw is not completely removed. In addition, it is desirable that the child slider 101c can be fixed again at a predetermined position by, for example, shaking the scale on the parent slider 101b.

さらに、携帯電話1の本体1aの端部を抑える固定の支持部材101e、101eは、携帯電話1のタイプ、具体的には端部形状、端部構造の違いに対応できるように、ベースにネジ止めする構造等としておいて、交換できるようにすることが好ましい。   Further, the fixed supporting members 101e and 101e for holding the end of the main body 1a of the mobile phone 1 are screwed to the base so as to correspond to the type of the mobile phone 1, specifically, the end shape and the end structure. It is preferable that the structure can be replaced so that it can be replaced.

図5はカメラ4等を装備するためのベースユニット30の側面図である。このベースユニット30は、ベース板31と、カメラ4やマイク32を搭載するためのタワー部33とからなり、ベース板31上にはピン等(図示を省略する)を設けてアダプタユニット2を位置決め搭載可能とし、タワー部33には、光軸が垂直下方を向くようにかつ上下動可能にカメラ4を取り付けるとともに、携帯電話1のスピーカ13に対応させてマイク35を設けてある。なお、カメラ4の光軸はもちろん垂直下方以外の方向へ向けても良く、それに合わせてアダプタユニット2等の取り付け、配置形態を変えればよい。なお、カメラ4の位置を可変させる機構も備えているが説明を省略する。   FIG. 5 is a side view of the base unit 30 for mounting the camera 4 and the like. The base unit 30 includes a base plate 31 and a tower portion 33 for mounting the camera 4 and the microphone 32. The adapter unit 2 is positioned by providing pins or the like (not shown) on the base plate 31. The camera unit 4 is mounted on the tower 33 so that the optical axis is vertically downward and movable up and down, and a microphone 35 is provided corresponding to the speaker 13 of the mobile phone 1. Of course, the optical axis of the camera 4 may be directed in a direction other than the vertically downward direction, and the attachment and arrangement form of the adapter unit 2 and the like may be changed accordingly. Although a mechanism for changing the position of the camera 4 is also provided, description thereof is omitted.

既述のように、プランジャーユニット7は、レリーズ6を複数本、詳細には評価対象とする携帯電話1のキーボタン5の個数以上の本数を有し、これらを選択的に駆動できる装置である。駆動装置そのものは公知であるので説明は省略する。またレリーズ6は、図6に示すように、チューブ61とその中を通したピン62からなるいわゆるレリーズワイヤタイプのものであるが、図示のように、レリーズガイドパネル23の孔25への着脱が容易に行えるように、チューブ61先端に設ける金属管部63のネジヤマ64を全長にわたらずに基部近傍のみ設けてある。なお基部にはロックネジ65と調節ネジ66とが設けてあり、ピン62の飛び出し長さを調節できるようにしてある。ただしこのタイプのレリーズでは、ピン62の飛び出し長さが長いほど確実にキーボタン5に届くようになるが押す力が弱くなる。なお、各ユニット、カメラ等の配線、駆動系、信号伝達系等々についての図示及び説明は省略する。   As described above, the plunger unit 7 is a device that has a plurality of release 6, and more specifically, more than the number of key buttons 5 of the cellular phone 1 to be evaluated, and can selectively drive these. is there. Since the drive device itself is known, the description thereof is omitted. As shown in FIG. 6, the release 6 is a so-called release wire type comprising a tube 61 and a pin 62 passed through the tube 61. As shown in the drawing, the release guide panel 23 can be attached to and detached from the hole 25. In order to make it easy, the screw yama 64 of the metal tube 63 provided at the tip of the tube 61 is provided only in the vicinity of the base without extending over the entire length. A lock screw 65 and an adjustment screw 66 are provided at the base so that the protruding length of the pin 62 can be adjusted. However, in this type of release, the longer the protruding length of the pin 62, the more reliably it reaches the key button 5, but the pressing force becomes weaker. In addition, illustration and description about wiring of each unit, a camera, a drive system, a signal transmission system, and the like are omitted.

本実施例装置を、アダプタユニット2に載置した携帯電話1のキーボタン5に対してプランジャーユニット7の所望のレリーズ6を駆動してキーボタン5を押し下げ、この押し下げによって変化するLCDパネル3をカメラ4により撮影し、所望のキーボタン5の押し下げに伴って設計、製造時に設定した通りの画像がLCDパネル3に表れるか否か等を判定するものとして以下説明する。   In this embodiment, the desired release 6 of the plunger unit 7 is driven with respect to the key button 5 of the cellular phone 1 placed on the adapter unit 2 to depress the key button 5, and the LCD panel 3 changes by this depression. In the following description, it is determined whether or not an image as set at the time of design and manufacture appears on the LCD panel 3 when the desired key button 5 is pressed.

図7は、モニタ9にメイン画面として表示させる画面の内容を示す図である。この画面は、カメラ4により撮影したLCDパネル3の画像3aと、例えばデジタルカメラ等で撮像して予め得ておいた判定、検査対象となる携帯電話1の全体平面画像1aとを合成して示している。なお、   FIG. 7 is a diagram showing the contents of the screen displayed on the monitor 9 as the main screen. This screen shows a composite of the image 3a of the LCD panel 3 taken by the camera 4 and the whole plane image 1a of the mobile phone 1 to be determined and inspected in advance obtained by, for example, a digital camera. ing. In addition,

次に本実施例装置における評価の流れを説明する。
評価は、
(1)機種ファイル作成(ボタン設定、LCD画面調整)
(2)シナリオ作成(設計書や仕様書(期待値画像とテスト項目)を用意して、シナリオを作成する)とデバッグ
(3)1回目の評価(実行、手動判定、画像入れ替え)
(4)2回目以降の評価(実行・自動判定)
という手順になる。
Next, the flow of evaluation in the present embodiment apparatus will be described.
Evaluation,
(1) Model file creation (button setting, LCD screen adjustment)
(2) Scenario creation (preparation of design documents and specifications (expected value images and test items) and scenario creation) and debugging (3) First evaluation (execution, manual judgment, image replacement)
(4) Second and subsequent evaluations (execution / automatic determination)
It becomes the procedure.

以下、本実施例装置における評価の手順等について詳細に説明するが、まず機種ファイル作成について説明する。
評価の開始に当たっては、最初に機種ファイルの新規作成を行い、携帯電話1の情報を設定する。機種ファイルとは、携帯電話1の個別情報をまとめたファイルであり、画像の調整や携帯電話1のキーボタン5とレリーズ6の対応を設定する。
Hereinafter, the evaluation procedure and the like in the apparatus of this embodiment will be described in detail. First, the model file creation will be described.
In starting the evaluation, first, a new model file is created and information on the mobile phone 1 is set. The model file is a file in which individual information of the mobile phone 1 is collected, and image adjustment and correspondence between the key button 5 and the release 6 of the mobile phone 1 are set.

即ち、予め用意しておいた評価対象携帯電話の画像ファイルを用い、モニタ画面に携帯電話1の全体画像を、もちろん表示部11と操作部12とが見えるように表示させ、これに組み合わせるLCDパネル3に相当する画面を作成する。なお画像ファイルとしては、例えばビットマップ形式で、メイン画面に収まるぐらいの大きさのものを用意する。そして、判定に必要なキーボタン5の設定とレリーズ6の割り当てを行う。キーボタン5は一つずつ設定する。即ち、図8に示すようにメイン画面上で携帯電話1のキーボタン5を囲んで範囲を指定し、キーボタン5の個数分だけ名称とプランジャーユニット7のレリーズ6の番号を指定する。図9は携帯電話情報設定画面、図10はボタン情報設定画面、図11はボタン情報一覧画面、図12はキーボタン5の情報設定でのレリーズ6の番号入力例を示す図である。   That is, an image file of the evaluation target mobile phone prepared in advance is used, and the entire image of the mobile phone 1 is displayed on the monitor screen so that the display unit 11 and the operation unit 12 can be seen. A screen corresponding to 3 is created. As the image file, for example, a bitmap file having a size that can be accommodated on the main screen is prepared. Then, the key button 5 necessary for determination and the release 6 are assigned. Key buttons 5 are set one by one. That is, as shown in FIG. 8, the range is specified by enclosing the key button 5 of the mobile phone 1 on the main screen, and the name and the number of the release 6 of the plunger unit 7 are specified by the number of the key buttons 5. 9 is a mobile phone information setting screen, FIG. 10 is a button information setting screen, FIG. 11 is a button information list screen, and FIG. 12 is a diagram showing an example of number input for release 6 in key button 5 information setting.

キーボタン5に対応するレリーズ6が、メイン画面上に作成したキーボタン5をクリックしたときに動作するかは、実際にプランジャーユニット7を動作させて確認する。例えばメイン画面での操作により作成したキーボタン5をクリックすると、そのキーボタン範囲が青くなるようにして、対応するプランジャーユニットのレリーズが携帯電話のボタンを押すかどうかをチェックする。既述の機種ファイル編集画面で動作確認を行うようにすることもできる。   Whether the release 6 corresponding to the key button 5 operates when the key button 5 created on the main screen is clicked is confirmed by actually operating the plunger unit 7. For example, when the key button 5 created by the operation on the main screen is clicked, the key button range is turned blue, and it is checked whether the release of the corresponding plunger unit presses the button of the mobile phone. It is also possible to check the operation on the model file editing screen described above.

図13は、特殊操作手順設定である携帯電話を待ち受け画面に戻す操作(リセット)、携帯電話に供給されている電源から切り電源を投入する操作(強制リセット)、折り畳み式携帯電話の開閉動作ボタンの設定を行う画面を示す。なお折り畳み開閉動作の機能が使用できるのは、携帯電話1が折り畳み式であり、それにアダプタユニットとプランジャーユニットが対応しており、レリーズ6で例えば磁石を用いた開閉機構の操作ボタンを押せる場合であり、これにより実際には携帯電話1を開閉せずに(図示の実施例では既に開いてしまった状態で)検査、評価することができる。   FIG. 13 shows an operation for returning the mobile phone to the standby screen (reset), which is a special operation procedure setting, an operation for turning off the power from the power supplied to the mobile phone (forced reset), and an opening / closing operation button of the folding mobile phone The screen to set up is shown. The function of the folding opening / closing operation can be used when the mobile phone 1 is a folding type, and the adapter unit and the plunger unit correspond to it, and the release 6 can be used to press the operation button of the opening / closing mechanism using a magnet, for example. Thus, it is possible to actually inspect and evaluate the mobile phone 1 without opening and closing the mobile phone 1 (in the illustrated embodiment, it has already been opened).

以上のように設定してきた機種ファイルは、適宜の名称でコンピュータ8が内蔵しまたは外部手段として有する記憶媒体に保存する。この保存した機種ファイル、即ち作成済みの機種ファイルは修正できることはもちろんである。図14は、機種ファイルの編集画面の図である。   The model file set as described above is stored in a storage medium with an appropriate name built in the computer 8 or as an external unit. Of course, the saved model file, that is, the created model file can be corrected. FIG. 14 is a diagram of a model file editing screen.

図15はモニタ9に表示させるLCDパネル3画面の調整画面である。画像の調整は、必要があれば歪み補正データの取得、補正データに基づいた画像補正、補正後画像の微調整、の順に行う。また必要ならばLCD画面の大きさも調整する。図15には、LCD枠の設定部分、LCDオフセットの設定部分も示す。LCD画面の調整画面での調整が終了し、必要があれば画像の補正を行い、補正後画像の台形補正を行う。図16は、補正後画像の確認画面である。画像の色調や明るさ補正も行える。また補正後画像の微調整として、画像の台形補正を行え、基準となる画像をもとにLCD画面の大きさ、傾きの微調整を行う。   FIG. 15 is an adjustment screen of the LCD panel 3 screen displayed on the monitor 9. If necessary, the image adjustment is performed in the order of obtaining distortion correction data, image correction based on the correction data, and fine adjustment of the corrected image. If necessary, adjust the size of the LCD screen. FIG. 15 also shows an LCD frame setting part and an LCD offset setting part. The adjustment on the adjustment screen of the LCD screen is completed. If necessary, the image is corrected, and the keystone correction of the corrected image is performed. FIG. 16 is a confirmation screen for the corrected image. You can also correct the color and brightness of the image. Further, as a fine adjustment of the corrected image, the keystone correction of the image can be performed, and the size and inclination of the LCD screen are finely adjusted based on the reference image.

台形補正は、図17に示すキャリブレーションシート40を基準にカメラ4の焦点距離、歪み具合などのパラメータを求め、それを補正データとして画像を補正するものである。補正値を取得するには、携帯電話1にキャリブレーションシート40を乗せてカメラ4で撮影し、メイン画面に表示されているキャリブレーションシート40の画像の黒い四角、点がはっきり見えるようにする。ついでキャリブレーションシート40を取り除いて携帯電話1のLCDパネル3の画面を撮影する。図18は歪み具合取得ウィザード画面の図である。歪み具合を取得する前に、まず携帯電話1のLCDパネル3画面の大きさとして縦、横サイズの測定値を入力し、歪み具合取得ボタンを押して歪み具合の取得を開始し、補正後画像として表示する。   In the keystone correction, parameters such as the focal length and distortion of the camera 4 are obtained with reference to the calibration sheet 40 shown in FIG. 17, and the image is corrected using the parameters as correction data. In order to obtain the correction value, the calibration sheet 40 is placed on the mobile phone 1 and photographed by the camera 4 so that the black squares and dots of the image of the calibration sheet 40 displayed on the main screen can be clearly seen. Next, the calibration sheet 40 is removed and the screen of the LCD panel 3 of the mobile phone 1 is photographed. FIG. 18 is a diagram of a distortion condition acquisition wizard screen. Before acquiring the degree of distortion, first enter the measured values of the vertical and horizontal sizes as the size of the LCD panel 3 screen of the mobile phone 1 and press the distortion degree acquisition button to start acquiring the degree of distortion. indicate.

次にシナリオ作成について説明する。   Next, scenario creation will be described.

図19は、シナリオ作成編集画面を示す図である。この画面は、シナリオ表示用のシナリオリストボックス50と、コマンド設定タブ51・・により切り替え可能な画面となっている情報設定部52からなる。   FIG. 19 is a diagram showing a scenario creation / editing screen. This screen is composed of a scenario list box 50 for scenario display and an information setting section 52 that can be switched by a command setting tab 51.

シナリオ作成には、まずキーボタン5の操作コマンドをシナリオリストボックス50に入力する。次いでキーボタン5の押下条件を情報設定部52で設定する。ここでは、複数押し(同時に複数のキーボタン5を押下するコマンド)、押下時間(携帯電話のボタンを押下する時間の設定、押下間隔(1つのコマンドが終わってから次の処理に移るまでの間隔)を設定する。評価環境番号ラジオボタンは、評価環境の番号の設定するもので、対向試験を行う設定で使用する。また折り畳み部開閉は、折り畳み式携帯電話の開閉動作ボタンの押下間隔を設定する。もちろん、この機能が使用できるのは、折り畳み式携帯電話のアダプタユニットと折り畳み式携帯電話の開閉動作ができるプランジャーユニットを用意した場合のみである。さらに、再生、制御、単体シナリオ呼び出し、リモートシナリオ呼び出し(対向試験で対向先のコンピュータでシナリオを実行させるコマンド)、待ち、繰り返し、停止、判定の各コマンドを設定する。判定コマンドは、画像の期待値を取得し、その場で判定(即時判定)を行い、判定結果によってシナリオ実行を続けたり停止したりするためのものである。なお取得した実測値の判定は後述する確認画面で行うが、この判定コマンドを用いると、その場で判定し、判定の結果が期待した通りでなければシナリオの実行を中断することができる。また一つのシナリオ内で別のシナリオを入れ子状に呼び出すことを可能とするシナリオ呼び出しコマンドも設定できる。図20は、その複数呼び出した例を示す図である。   To create a scenario, first, an operation command for the key button 5 is input to the scenario list box 50. Next, the pressing condition of the key button 5 is set by the information setting unit 52. Here, multiple presses (commands for simultaneously pressing a plurality of key buttons 5), press times (setting of time for pressing a button on a mobile phone, press intervals (intervals from the end of one command to the next processing) The evaluation environment number radio button is used to set the number of the evaluation environment, and is used for setting the facing test.For folding part opening / closing, the interval for pressing the opening / closing operation button of the folding mobile phone is set. Of course, this function can be used only when the adapter unit of the foldable mobile phone and the plunger unit that can open and close the foldable mobile phone are prepared. Remote scenario call (command to execute a scenario on the opposite computer in the opposite test), wait, repeat, stop Each judgment command is set for obtaining an expected value of an image, making a judgment (immediate judgment) on the spot, and continuing or stopping scenario execution according to the judgment result. The obtained actual measurement is determined on a confirmation screen described later, but if this determination command is used, the determination is made on the spot, and the execution of the scenario can be interrupted if the determination result is not as expected. A scenario call command that enables another scenario to be called in a nested manner within one scenario can also be set, and Fig. 20 is a diagram showing an example of a plurality of calls.

図21は、期待値設定タブの内容を示す図である。この画面では、携帯電話1の反応を記録するコマンドを入力できる。記録できるのはLCDパネル3の画面の画像と、マイク35で録音した音声である。なお図中53は期待値画像表示スペースである。   FIG. 21 is a diagram showing the contents of the expected value setting tab. On this screen, a command for recording the reaction of the mobile phone 1 can be input. What can be recorded is the screen image of the LCD panel 3 and the sound recorded by the microphone 35. In the figure, reference numeral 53 denotes an expected value image display space.

画像取得コマンドは、期待値画像を設定し、実際の画像と比較することでテストを行うためのものである。期待値画像には、例えばjpg、bmp、emf等の形式のファイルを設定する。また実測値を記録するタイミングとして、記録を開始するタイミングを指定するとともに、画像指定、判定範囲設定を行う。一方、音声取得コマンドは、マイク35で集音した音声を録音するもので、キーボタン5を押下した時の音(DTMF音)を確認画面で判定することができるようにするものである。   The image acquisition command is used for performing a test by setting an expected value image and comparing it with an actual image. For example, a file having a format such as jpg, bmp, or emf is set in the expected value image. In addition, the timing for starting the recording is designated as the timing for recording the actual measurement value, and the image designation and determination range setting are performed. On the other hand, the voice acquisition command is used to record the voice collected by the microphone 35 so that the sound (DTMF sound) when the key button 5 is pressed can be determined on the confirmation screen.

なお図19の入力支援部は、名前や電話番号などのひらがな、数字、アルファベット、記号を携帯電話1で入力するシナリオを自動生成するための部位である。またこの部位のキーボタン情報ボタンを操作すると、図22に示すボタン対応表が表示されるようになっており、文字入力に使用する携帯電話1のキーボタン5と、機種ファイルで登録したキー名の対応を設定できる。   The input support unit in FIG. 19 is a part for automatically generating a scenario in which hiragana, numbers, alphabets, and symbols such as names and telephone numbers are input with the mobile phone 1. When the key button information button of this part is operated, the button correspondence table shown in FIG. 22 is displayed. The key button 5 of the cellular phone 1 used for character input and the key name registered in the model file are displayed. Can be set.

そして、作成したシナリオが正しく動作するか否かをデバッグを行うことでチェックする。なおデバッグ画面は、後述する実行画面(図23)と同様である。チェックの結果は、例えば図24に示すようなエラーレポートとして出力する。   Then, it is checked by debugging whether the created scenario operates correctly. The debug screen is the same as an execution screen (FIG. 23) described later. The result of the check is output as an error report as shown in FIG.

次にシナリオの実行について説明する。   Next, scenario execution will be described.

図23は実行画面を示す図である。この画面は、シナリオリストボックス80、実行時指定部81、実行状況表示部82からなり、実行状況表示部82は、シナリオ一覧リストボックス83、カレントシナリオボックス84、期待値画像表示部85、実行LCD画像表示部86からなる。シナリオリストボックス80には、実行中のシナリオあるいはこれから実行するシナリオの名称を表示する。実行時指定部81は、キーボタン5の押し時間に関する設定を表示する部位、期待値を記録するタイミングの設定を表示する部位、停止レベルを表示する部位を含む。またシナリオ一覧リストボックス83は、選択しているシナリオとシナリオ集を表示し、カレントシナリオボックス84は、シナリオ一覧リストボックス83で選択しているシナリオを表示する。期待値画像表示部85は、画像取得コマンド実行時、期待値として設定されている画像を表示し、実行LCD画像表示部86は同じく撮影した携帯電話1のLCDパネル3の画面を表示する。なお図24はエラーレポートを示す図である。   FIG. 23 shows an execution screen. This screen includes a scenario list box 80, an execution time designation unit 81, and an execution status display unit 82. The execution status display unit 82 includes a scenario list list box 83, a current scenario box 84, an expected value image display unit 85, an execution LCD. An image display unit 86 is included. The scenario list box 80 displays the name of the scenario being executed or the scenario to be executed in the future. The execution time specification unit 81 includes a part for displaying a setting relating to the time for which the key button 5 is pressed, a part for displaying a setting for timing for recording an expected value, and a part for displaying a stop level. The scenario list list box 83 displays the selected scenario and scenario collection, and the current scenario box 84 displays the scenario selected in the scenario list list box 83. The expected value image display unit 85 displays an image set as an expected value when the image acquisition command is executed, and the execution LCD image display unit 86 displays the screen of the LCD panel 3 of the cellular phone 1 that is also photographed. FIG. 24 shows an error report.

上述のような携帯電話自動評価システムを2セット使用して対向試験を行うことができる。対向試験では、相手方システムのコンピュータとLANで接続し、接続した側のシステムで同じシナリオを自動的に実行する。即ち、2台の携帯電話自動評価システムの、片方をサーバーとし、他方をクライアントとして、サーバーがクライアントを制御する試験となる。そして、サーバー側でシナリオ実行をすると、サーバーがクライアント側のプランジャーユニット7を操作することで2台の携帯電話1を操作できる。したがって、別の携帯電話1に電話をかけて、かけられた携帯電話機で電話をうけるというような検査を行うことができる。   The facing test can be performed using two sets of the mobile phone automatic evaluation systems as described above. In the oncoming test, the computer of the partner system is connected via a LAN, and the same scenario is automatically executed on the connected system. That is, this is a test in which the server controls the client with one of the two mobile phone automatic evaluation systems as a server and the other as a client. When the scenario is executed on the server side, the server can operate the two mobile phones 1 by operating the plunger unit 7 on the client side. Therefore, it is possible to perform an inspection such that a call is made to another mobile phone 1 and the received mobile phone is called.

なお対向試験であるか否かにかかわらず、シナリオを自動実行させ得るが、途中での手動による一時停止、停止、再開が可能であり、シナリオをステップごとに実行させるステップ実行、途中から自動実行に切り替える半自動実行も設定できる。   The scenario can be automatically executed regardless of whether it is a face-to-face test, but it can be paused, stopped, and restarted manually in the middle, and the scenario is executed step by step and automatically executed from the middle. You can also set semi-automatic execution to switch to.

またなお、現在実行中のシナリオに、指定した周期ごとに別のシナリオを実行させる、いわゆる割り込み処理を可能とすることによって、携帯電話を操作中にメールを受信するといった実際の使用状況に近い試験を自動的に行える。   In addition, a test that is close to the actual usage situation, such as receiving a mail while operating a mobile phone, by enabling so-called interrupt processing that allows another scenario to be executed for each specified period in the currently running scenario. Can be done automatically.

ある携帯電話について1回目のシナリオを実行した後、確認(手動判定と画像入れ替え)を行う。即ち例えば一度手動で判定を行い、判定結果が良ければ画像を入れ替える。まず、画像を確認し、期待値画像と実行画像が一致するかどうかについてシナリオの全ステップを判定する。複数のシナリオを実行するときは、全シナリオについて全ステップを判定する。そして期待値画像が直接画面を撮影した画像でない場合は、画像判定が行えないので期待値画像の入れ替えを行う。入れ替えを行うと、次に同じシナリオを実行したときには入れ替えられた画像が期待値としてデータベースに登録され、画像の自動判定を行うことができる。また用意した期待値画像のある一部分だけを自動判定に使用したいときは、判定範囲設定を行うことができる。   After executing the first scenario for a certain mobile phone, confirmation (manual determination and image replacement) is performed. That is, for example, manual determination is performed once, and if the determination result is good, the images are replaced. First, the image is confirmed, and all the steps of the scenario are determined as to whether or not the expected value image matches the execution image. When executing a plurality of scenarios, all steps are determined for all scenarios. If the expected value image is not an image obtained by directly capturing the screen, the image determination cannot be performed, and the expected value image is replaced. If the replacement is performed, the next time the same scenario is executed, the replaced image is registered as an expected value in the database, and automatic image determination can be performed. In addition, when it is desired to use only a part of the prepared expected value image for automatic determination, the determination range can be set.

なお判定範囲にはデフォルト判定範囲と個別判定範囲を設定でき、前者ではすべての画像に同じ判定範囲を適用し、後者では画面上で範囲を設定された画像だけに適用する。判定範囲と除外範囲も設定でき、判定範囲と除外範囲を組み合わせることで、複雑な形の判定ができる。コンピュータを用いたシステムであるので、もちろん判定範囲の座標指定等も可能である。   Note that a default determination range and an individual determination range can be set as the determination range. In the former case, the same determination range is applied to all images, and in the latter case, the determination range is applied only to images whose range is set on the screen. A determination range and an exclusion range can also be set, and a complex shape can be determined by combining the determination range and the exclusion range. Since the system uses a computer, it is of course possible to specify the coordinates of the determination range.

そして2回目以降のシナリオ実行の結果は、期待値画像が入れ替えられていれば、自動判定ができる。自動判定機能は、用意された判定範囲に基づいて、期待値画像と実測画像が一致するかどうかを自動的に判定するものである。また、期待値DTMF音の周波数と実測DTMF音の周波数が一致するかどうかも自動的に判定できる。   Then, the result of scenario execution for the second and subsequent times can be automatically determined if the expected value images are replaced. The automatic determination function automatically determines whether the expected value image and the actual measurement image match based on the prepared determination range. It can also be automatically determined whether the frequency of the expected value DTMF sound matches the frequency of the measured DTMF sound.

なお、図示は省略するが、折り畳み型の携帯電話でかつキーボタン5を有する操作部12の外面にもう一つの表示パネルを備えるものあるいは同様の構造のPDA等が近年開発、市販されている。これらを評価対象とする場合には、開いた状態でLCDパネル3の表示を評価することと、閉じた状態で操作部12外面の表示パネルを評価することを個別に行うこと、あるいはもう一つカメラを用意して、開いた状態とした携帯電話等の二画面を二つのカメラで同時にかつ個別に撮像して評価することのいずれでも可能である。   Although not shown in the drawings, a foldable mobile phone having another display panel on the outer surface of the operation unit 12 having the key buttons 5 or a PDA having a similar structure has been developed and marketed in recent years. When these are to be evaluated, evaluation of the display on the LCD panel 3 in the open state and evaluation of the display panel on the outer surface of the operation unit 12 in the closed state are performed individually, or another It is possible to prepare and evaluate two screens of a mobile phone or the like that have been opened with two cameras at the same time and separately.

また上述してきた実施例の機能を総合し、人間の判断に近い曖昧さを兼ね備えた画像判定ができるようにすることができ、期待値画像と実測値画像の微妙な違いを許容して画像判定を行えるようになる。例えば、これによりカメラ4の再設置の際のセットアップ時間を大幅に短縮することができるようになる。また画像判定が難しかった45インチ大画面TVのような機器が検査対象であっても自動判定が可能になる。なお、ファジィ理論の画像計測への応用は種々の方法が提案されており、検査対象に応じて等種々の条件を勘案して適宜の方法を選択し、上述した画像処理に組み込めばよいので詳細な説明は省略する。   In addition, the functions of the above-described embodiments can be integrated to enable image determination with ambiguity that is close to human judgment, and image determination is allowed by allowing subtle differences between expected value images and actual measurement value images. Can be done. For example, this makes it possible to greatly reduce the setup time when the camera 4 is reinstalled. Further, automatic determination can be performed even if a device such as a 45-inch large-screen TV, for which image determination is difficult, is an inspection target. Various methods have been proposed for applying fuzzy theory to image measurement, and it is only necessary to select an appropriate method in consideration of various conditions such as depending on the object to be inspected and incorporate it into the above-described image processing. The detailed explanation is omitted.

以下、画面の表示内容の評価方法について説明する。本例では、図25に示すように、静止画、動画を評価する他、図26に示すように携帯電話等の器具が発生する音声についても判定を行う。   Hereinafter, a method for evaluating the display content of the screen will be described. In this example, as shown in FIG. 25, in addition to evaluating still images and moving images, determination is also made on the sound generated by a device such as a mobile phone as shown in FIG.

まず画像の評価の概略を説明する。本例では、図25に示すようにまずカメラ4からの画像のキャリブレーションを行う(S101)。このキャリブレーションは、システム全体で一回行えばよく、システムを構成する他の機器、装置の機能チェック装置のカメラが取得した画像に適用できる。   First, an outline of image evaluation will be described. In this example, as shown in FIG. 25, first, the image from the camera 4 is calibrated (S101). This calibration may be performed once in the entire system, and can be applied to an image acquired by a camera of a function check device of another device or apparatus constituting the system.

次に、各機器、装置の機能チェック装置において、検査対象携帯電話1の操作ボタン5を操作し(S102)、携帯電話1のLCDパネル3に画像を表示させる。この画像を前記カメラ4で取得し静止画、動画別に画像判定を行う(S104)。   Next, in the function check device of each device and apparatus, the operation button 5 of the mobile phone 1 to be inspected is operated (S102), and an image is displayed on the LCD panel 3 of the mobile phone 1. This image is acquired by the camera 4 and image determination is performed for each still image and moving image (S104).

一方、音声判定においては、本例ではDTM音、BT/RBT音、及びメロディについて判定を行う。この判定は、図26に示すように、携帯電話1の操作ボタン5を操作し(S201)、発生した音声をマイク35で取得し(S202)、音声信号を一端機器、装置の機能チェック装置に格納し、その格納した音声に対して判定を行う(S203)。まず、機器、装置の機能チェック装置の画像取得用の撮像装置のキャリブレーションについて詳しく説明する。   On the other hand, in the voice determination, in this example, the determination is made for the DTM sound, the BT / RBT sound, and the melody. As shown in FIG. 26, this determination is performed by operating the operation button 5 of the mobile phone 1 (S201), acquiring the generated voice with the microphone 35 (S202), and sending the voice signal to the device, the function check device of the device. The stored voice is stored, and the stored voice is determined (S203). First, the calibration of the imaging device for image acquisition of the device and the function check device of the device will be described in detail.

このキャリブレーションでは、図17で示したキャリブレーション用シートの中央に表示されている7×7個の黒い点の座標を撮像画像から読み取る、そして、実際のキャリブレーション用シートと撮影した画像の点とを比較することによりカメラの撮影特性データを取得する。   In this calibration, the coordinates of 7 × 7 black dots displayed at the center of the calibration sheet shown in FIG. 17 are read from the captured image, and the actual calibration sheet and the points of the captured image are read. Is obtained to obtain the photographing characteristic data of the camera.

まず、キャリブレーション用シートの画像を複数枚、例えば20枚撮影する。これらの撮影に際しては、キャリブレーション用シートを様々な位置・角度に配置して撮影する。これにより、様々な条件下での、キャリブレーション用シート画像の点の位置座標を取得する。   First, a plurality of, for example, 20 images of a calibration sheet are taken. In taking these images, calibration sheets are arranged at various positions and angles. Thereby, the position coordinates of the point of the calibration sheet image under various conditions are acquired.

次に、実際に検査する携帯電話の液晶画面と平行においたキャリブレーション用シートの画像を撮影する。すべてのキャリブレーション用シート画像から点の位置座標を取得し、これらのデータからカメラの焦点距離、放射状歪みの中心位置、歪み度合いを計算する。これは画像処理ライブラリによって計算される。画像処理ライブラリは市販のソフトウェア(例えばMVTec製HALCON(商標))であり、前記各要素を計算するものである。そして、携帯電話画面に乗せて撮影した(最後の)キャリブレーション用シート画像の歪みがなくなるよう補正を行う。   Next, an image of the calibration sheet placed in parallel with the liquid crystal screen of the mobile phone to be actually inspected is taken. The position coordinates of the points are acquired from all the calibration sheet images, and the focal length of the camera, the center position of the radial distortion, and the degree of distortion are calculated from these data. This is calculated by the image processing library. The image processing library is commercially available software (for example, HALCON (trademark) manufactured by MVTec), and calculates each element. Then, correction is performed so as to eliminate distortion of the (last) calibration sheet image taken on the mobile phone screen.

本例では、キャリブレーション用シートから点の位置を検出するのに、当装置の被い内で撮影するため暗い画像になってしまう。画像処理ライブラリの中にはシートの矩形位置を取得する関数があり、指定した特定の色のラインで表示される矩形のみを取得することができる。   In this example, although the position of the point is detected from the calibration sheet, the image is captured within the covering of the apparatus, resulting in a dark image. In the image processing library, there is a function for acquiring a rectangular position of a sheet, and only a rectangle displayed by a specified color line can be acquired.

この関数には閾値を引数として渡すが、これが高すぎると暗い画像では検出することができない。逆に閾値が低いと誤った領域を取得してしまう。また、ライブラリの戻り値では矩形を取得できたかがわからない。失敗したまま続けていくと後からエラーとなることがあるので、ここで正確に矩形領域を取得する必要がある。   This function passes a threshold value as an argument, but if it is too high, it cannot be detected in dark images. Conversely, if the threshold is low, an incorrect area is acquired. Also, the return value of the library does not know whether the rectangle has been acquired. If it continues with failure, an error may occur later, so it is necessary to acquire the rectangular area accurately here.

このため、暗いムラのある画像でもマークを検出することができるように、高い閾値から序々に閾値を下げながら、前記と同じ矩形を取得する関数を実行することとする。取得された領域が最も正方形に近い形になったところで止めるようにする。   For this reason, the function for obtaining the same rectangle as described above is executed while gradually decreasing the threshold from a high threshold so that a mark can be detected even in an image with dark unevenness. Stop when the acquired area is closest to the square.

次に、キャリブレーション用シートの画像からカメラの歪みを修正するためのパラメータを取得する。カメラの焦点距離、放射状歪みの中心位置、歪み具合、最後のキャリブレーション用シートの画像に合わせて変換したカメラ座標を画像処理ライブラリで計算する。   Next, parameters for correcting camera distortion are acquired from the image of the calibration sheet. The camera processing unit calculates the camera coordinates converted according to the focal length of the camera, the center position of the radial distortion, the degree of distortion, and the image of the last calibration sheet.

以上より求めたパラメータを用いて携帯電話の画像に変換をかける。前記の値を用いて、最後に取得したキャリブレーション用シートと、携帯電話のLCD画像に対して変換をかける。これでキャリブレーション用シートは歪みのない正方形で表示される。   The mobile phone image is converted using the parameters obtained above. Using the above values, conversion is performed on the calibration sheet obtained last and the LCD image of the mobile phone. The calibration sheet is now displayed as an undistorted square.

さらに、中央に適度な大きさで表示されるよう変換をかける。最終的にはキャリブレーション用シートではなく、携帯電話のLCD画面が中央に歪みなく表示されるのが目的なので、適切なサイズで中央に表示されるよう変換パラメータを化させながら変換を繰り返す。   Further, conversion is performed so that the image is displayed in an appropriate size in the center. Ultimately, the purpose is that the LCD screen of the mobile phone is displayed in the center without distortion, not the calibration sheet, so the conversion is repeated while converting the conversion parameters so that they are displayed in the center with an appropriate size.

そして、他の機種の基準画像に合わせて他の機器、装置の機能チェック装置で画像が使用できるよう、補正をかける。ユーザは基準となる画像を1枚選択し、自動補正ボタンをクリックするだけで、現在の画像が基準画像と同じサイズ・明るさになるよう補正される。   Then, correction is performed so that the image can be used by the function check device of another device or apparatus in accordance with the reference image of another model. The user selects one reference image and clicks the automatic correction button to correct the current image to the same size and brightness as the reference image.

基準画像に合わせて自動補正をかける。即ち、位置、回転、拡大・縮小、縦横比が基準画像と一致するようアフィン変換をかける。カメラで撮影している画像から静止画を取得するときにこの補正をかけている。   Apply automatic correction according to the reference image. That is, the affine transformation is performed so that the position, rotation, enlargement / reduction, and aspect ratio match the reference image. This correction is applied when a still image is acquired from an image taken with a camera.

次に、基準画像に合わせてカメラの明るさ・コントラストを調整する。静止画の明るさを後から変えると、元の画像は例えば0〜255のデータしか持っていないので、例えば明るすぎて白く飛んでいる場合は正確な色の値が分からない。よって、撮影後の画像に変換をかけるのではなく、カメラの設定値を直接変更する。カメラの明るさ・コントラストを変化させながら連続して撮影・比較することにより適切な明るさ・コントラストに合わせていく。   Next, the brightness and contrast of the camera are adjusted according to the reference image. If the brightness of the still image is changed later, the original image has only data of, for example, 0 to 255. Therefore, for example, when the image is too bright and white, the accurate color value is not known. Therefore, the setting value of the camera is directly changed instead of converting the captured image. By continuously shooting and comparing while changing the brightness and contrast of the camera, it matches the appropriate brightness and contrast.

次に静止画の比較について説明する。   Next, comparison of still images will be described.

本発明に係る機器、装置の機能チェック装置の画像処理では、入力画像としてどのような画像が来るか予想がつかない。したがって、入ってきた画像によって最適な判定ロジックを選択し、ミスのない判定を行う必要がある。具体的には、画面の細かい画像、暗い画像が入ってきても判定しやすい明るさに補正し、ある程度の面積を持った領域の違いを判定する。   In the image processing of the function check device of the device or device according to the present invention, it is impossible to predict what image will be input. Therefore, it is necessary to select an optimum determination logic according to the image that has entered and perform determination without any mistake. Specifically, the brightness is corrected so that it can be easily determined even when a fine image or a dark image enters, and a difference between regions having a certain area is determined.

LCDの明るい領域を例えば以下のように取得する。   The bright area of the LCD is acquired as follows, for example.

図27に示すように、画像のヒストグラム(0〜255)を求め、それを大きく3つの山に分ける。そのうち暗い方から数えて1つ目の山と2つ目の山を分ける境目の値で閾値処理を行う。   As shown in FIG. 27, an image histogram (0 to 255) is obtained and divided into three peaks. Threshold processing is performed with the value of the boundary dividing the first and second peaks counted from the darker.

また、山が偶数にしか分かれない場合は中心をとる。1つ目の山と2つ目の山を分ける間をとる理由は、本例では、画像を周りの黒い枠と明るいLCD部分に分けたいので、黒いところが除ければよい。しかし、中には光が漏れて灰色に明るくなってしまう場合もあるので、このような方法を採用する。   If the mountain is only divided into even numbers, the center is taken. The reason for taking the interval between dividing the first and second peaks is that in this example, the image is divided into a surrounding black frame and a bright LCD portion, so it is sufficient to remove the black areas. However, there are cases where some light leaks and becomes brighter in gray, so this method is adopted.

画像の明るさが大きく異なる場合に、それらを同じ程度の明るさに合わせるか、または明るさが違うためにNGと判断するかは、設定ファイルの値で決めることができ、ユーザが変更することも可能である。   If the brightness of the images is greatly different, whether to match them to the same level of brightness or to judge NG because the brightness is different can be determined by the value in the setting file, and the user can change Is also possible.

ここで設定した値より実際の画像の明るさが異なっていた場合は位置補正をしないまま画像比較し、一致しなかったという結果を出す。   If the brightness of the actual image differs from the value set here, the images are compared without correcting the position, and a result that they do not match is obtained.

基準画像から位置合わせのためのテンプレートを作成基準画像と実測画像のずれをなくすため、後工程で位置補正を行う。そのためのパターンマッチング用テンプレートを基準画像を元に作成する。(画像処理ライブラリで計算)テンプレート作成用の画像を選択する。   A template for alignment from the reference image is created. In order to eliminate the deviation between the reference image and the actual measurement image, position correction is performed in a subsequent process. A pattern matching template for that purpose is created based on the reference image. (Calculate with image processing library) Select an image for template creation.

本例では、LCD領域の淵(幅3ピクセル)の領域に画像を絞り込んだものを登録画像としている。これにより正確かつ速い位置補正が可能となる。   In this example, a registered image is obtained by narrowing down the image to the area of the LCD area (width 3 pixels). This enables accurate and fast position correction.

次に元画像のコントラストが低い場合はコントラストを上げるための補正を行うこれは、単にガンマ補正をかけるのではなく、図28に示すように、色平均値より明るい部分はより明るく、暗い部分はより暗く補正する。画像平均値と最大値・最小値から明るさ強調の変換テーブルを計算して、コントラストの補正を行う。色合いの微妙な画像の判定に使用する。このようにコントラストを上げると、途中でここから上は明るくし、ここから下は暗くするといった変極点が生じる。   Next, when the contrast of the original image is low, a correction for increasing the contrast is performed. This is not simply a gamma correction. As shown in FIG. 28, a portion brighter than the color average value is brighter, and a dark portion is Correct darker. The brightness enhancement conversion table is calculated from the average image value and the maximum / minimum values, and the contrast is corrected. Used to judge images with subtle hues. When the contrast is increased in this way, an inflection point occurs such that the upper part becomes brighter and the lower part becomes darker.

次に、基準画像に合わせて実測画像の色補正を行う。このとき、多少違う画像でも同じように色補正されるよう細かい画像やエッジ領域を除いた部分で調整する。基準画像と実測画像で色の平均値が閾値(ユーザが指定したパラメータ)だけ異なる場合は補正をかけないようにする。さらに、テンプレートを基準にパターンマッチングを行う。先に作成したテンプレートを基準にパターンマッチングを行う。これは、画像処理ライブラリで計算する。   Next, color correction of the measured image is performed according to the reference image. At this time, adjustment is made in a portion excluding a fine image and an edge region so that a slightly different image is color-corrected in the same manner. When the average color value differs between the reference image and the measured image by a threshold value (parameter specified by the user), correction is not performed. Furthermore, pattern matching is performed based on the template. Pattern matching is performed based on the template created earlier. This is calculated by the image processing library.

なお、繰り返し判定するときに、2度目以降は1回目の位置情報を利用して速く判定する。1回目の基準画像の位置データをとっておき、2回目以降の判定ではそれを読み込んで画像マッチングすることで位置合わせを行う。   When repeatedly determining, the second and subsequent determinations are made quickly using the first position information. The position data of the first reference image is taken, and in the second and subsequent determinations, the position data is read and read for image matching.

位置合わせを行った結果、大きくずれてしまった場合、またユーザが指定したよりも移動してしまった場合は元の位置に戻して、そのまま重ねて判定する。   As a result of the alignment, if there is a large shift, or if the user has moved more than specified by the user, the original position is returned and the determination is made by overlapping the positions as they are.

基準画像と実測画像をそのまま重ね合わせて判定を行う。色が大きく違う、位置が異なるなど何かしらNGであると思われる要素があった場合は、位置補正を行わないで単に画像差分をとった結果を出す。なおこの判定では、人間の判断に近い曖昧さを兼ね備えた画像判定とすることができる。いわゆるファジー制御を用いた判定機能により、期待値画像と実測値画像の微妙な違いを許容して画像判定を行えば、カメラ再設置の際のセットアップ時間を大幅に短縮することができる。   Determination is performed by superimposing the reference image and the measured image as they are. If there is an element that seems to be NG, such as a greatly different color or a different position, a result of simply taking an image difference is obtained without performing position correction. Note that this determination can be an image determination that has ambiguity similar to human determination. If a determination function using so-called fuzzy control is used to perform image determination while allowing a subtle difference between an expected value image and an actual measurement value image, the setup time for camera re-installation can be greatly reduced.

位置合わせで取得したデータに基づいて画像・判定範囲に変換をかける。位置合わせが成功した場合は、データに基づいてアフィン変換をかける。この処理は画像処理ライブラリで行う。そして、ユーザが指定した判定対象範囲に基準画像、実測画像の絞り込み判定を行う。   The image / determination range is converted based on the data acquired by the alignment. If the alignment is successful, affine transformation is performed based on the data. This processing is performed by an image processing library. Then, the reference image and the actually measured image are narrowed down in the determination target range designated by the user.

次に、基準画像と実測画像の差分をとる。本例ではRGB画像とグレイ画像の4種類ごとに基準画像と実測画像で画像差分をとる。元画像のコントラストの低いものについては、差分を強調する処理をかけることが有効である。この処理は取得したRGB、Grayごとの差分画像を加算してよりはっきりさせるものである。   Next, the difference between the reference image and the measured image is taken. In this example, an image difference is obtained between the reference image and the actually measured image for each of four types of RGB image and gray image. For the original image having a low contrast, it is effective to apply a process for enhancing the difference. This process makes the difference image for each of RGB and Gray acquired more clear.

差分画像に閾値処理でNGと期待される領域を取得する閾値(70くらい、ユーザからも設定できる)から255の間で閾値処理を行う。基準画像と実測画像で異なる部分が抽出される。   Threshold processing is performed between 255 (about 70, which can also be set by the user) and 255 for obtaining an area that is expected to be NG in the difference image by threshold processing. Different portions are extracted between the reference image and the measured image.

本例は、多数の画像をターゲットに、ロジックやパラメータを少しずつ変化させながら結果を比較していき、閾値として最も良かった結果のものを採用した。画像の明るさによって閾値を変えることが望ましい。基準の閾値は設定ファイルから読み込むが、画像が暗めの場合はそれに合わせて閾値を下げる。逆に明るい場合は上げるようにする。   In this example, for a large number of images, the results were compared while gradually changing the logic and parameters, and the result with the best threshold was adopted. It is desirable to change the threshold according to the brightness of the image. The reference threshold is read from the setting file, but if the image is dark, the threshold is lowered accordingly. Conversely, if it is bright, increase it.

次にノイズ処理を行う。閾値処理で求めたNG領域(画像差分領域)からノイズを削除し、本当にNGである領域のみを残す処理である。まず、NG候補領域から大きくNGだとわかる部分だけを抽出する。単に閾値より明るい部分をNG領域とするのではなく、明るい部分が含まれていてかつNG候補となる白い部分の周辺面積が大きいものだけを最終的なNG領域とする。   Next, noise processing is performed. In this process, noise is deleted from the NG area (image difference area) obtained by the threshold process, and only the area that is truly NG is left. First, only a portion that is largely recognized as NG is extracted from the NG candidate region. A portion brighter than the threshold is not set as an NG region, but only a portion including a bright portion and having a large peripheral area of a white portion as an NG candidate is set as a final NG region.

例えば、図29に示す場合、左の領域は面積が広くても明るさの最大値が低いのでNGと判断されない。右の領域は中心の明るさが高くなっているので、この領域全体がNGとして検出される。   For example, in the case shown in FIG. 29, even if the area on the left is large, the maximum brightness value is low, so it is not determined as NG. Since the right area has a high brightness at the center, the entire area is detected as NG.

前記処理により、NGと判断された領域の面積がゼロであればOK、1以上の場合はNGと判断され、NG領域が表示される。なお図30は本実施例に係る携帯電話の検査装置での静止画像判定処理動作中の領域特定処理を示す図である。   By the above processing, if the area of the area determined to be NG is zero, it is OK if the area is 1 or more, and NG area is displayed. FIG. 30 is a diagram showing the area specifying process during the still image determination process in the mobile phone inspection apparatus according to the present embodiment.

ノイズ処理に関しては、その他、比較対象画像を8方向に0.5ピクセルずつ動かし、位置合わせがほんの少しずれただけでノイズが増えるので、位置合わせを行った後さらに0.5ピクセルずつ移動させて、最もノイズの少なかった位置を最適とする方法や、NGと判断された領域のうち、その領域のエッジの情報から「ずれ」と「違い」を判断する方法を採用することができる。   As for noise processing, the image to be compared is moved by 0.5 pixels in 8 directions, and the noise increases when the alignment is slightly shifted. It is possible to adopt a method of optimizing the position with the least noise or a method of determining “deviation” and “difference” from the edge information of an area determined to be NG.

具体的には図31に示すように、かつ上述してきたように、画像サイズの判定(S111)、LCD領域の画像取得(S112)、明るさ判定(S113)、位置合わせ用テンプレート作成(S114)、コントラスト調整(S114)、色補正(S116)、テンプレートを基準にパターンマッチング(S117)、位置確認(S118)、画像判定範囲の変換(S119)又は基準画像と実画像を重ね合わせて判定(S120)、画像を判定範囲に絞り込む(S121)、基準画像と実測画像との差分抽出(S122)、差分画像に閾値処理で不良(NG)と期待される領域を取得(S123)、ノイズ処理(S124)、そして結果出力(S124)となる。   Specifically, as shown in FIG. 31 and as described above, image size determination (S111), LCD area image acquisition (S112), brightness determination (S113), and alignment template creation (S114) , Contrast adjustment (S114), color correction (S116), pattern matching based on template (S117), position confirmation (S118), image determination range conversion (S119), or determination by superimposing the reference image and the actual image (S120) ), Narrowing down the image to the determination range (S121), extracting the difference between the reference image and the measured image (S122), obtaining a region that is expected to be defective (NG) in the threshold value processing (S123), and noise processing (S124) ) And a result output (S124).

次に本発明に係る機器、装置の機能チェック装置の動画判定処理について図32ないし図37に基づいて説明する。図32は、動画処理を示すフローチャートである。本例では、期待値、実測値はそれぞれaviファイルとする。期待値と実測値は静止画に切り出したとき、同じサイズとする。ただし撮影時間は異なっても差し支えない。さらに、画像の周囲の枠が黒く表示されていることが望ましい。   Next, the moving image determination process of the function check device of the device or apparatus according to the present invention will be described with reference to FIGS. FIG. 32 is a flowchart showing the moving image processing. In this example, the expected value and the actually measured value are each an avi file. The expected value and the actual measurement value have the same size when cut into a still image. However, the shooting time can be different. Furthermore, it is desirable that the frame around the image is displayed in black.

まず、カメラで撮影され格納された動画ファイル(AVIファイル)から、動画の読み込みを行う(S141)。そして動画を1フレーム毎(30f/s)に静止画(ビットマップ)に切り出す。これは画像を読み出した撮像装置の取得フレーム数である。   First, a moving image is read from a moving image file (AVI file) shot and stored by the camera (S141). Then, the moving image is cut out into a still image (bitmap) every frame (30 f / s). This is the number of acquired frames of the imaging device that has read the image.

次に読み込んだ画像の平均化を行う。これは、図35に示すように画像を1枚ずつ読み込み、2つ前の画像(図33(a))と1つ前の画像(同(b)と、着目した画像(同(c)を合成し画像3枚の平均画像を取得するものである(S143)である。そして、3枚の画像の平均画像を1枚の画像(図33(d)として扱う。これにより期待値と実測値の切り出しのタイミングがずれていても平均化することによりなめらかな動きになる。   Next, the read image is averaged. As shown in FIG. 35, images are read one by one, the previous image (FIG. 33 (a)), the previous image (the same (b)), and the focused image (the same (c)). Then, the average image of the three images is obtained (S143), and the average image of the three images is handled as one image (FIG. 33D). Even if the timing of cutting out is shifted, smoothing is achieved by averaging.

さらに後の工程で期待値と実測値の同期を合わせた後に比較を行うのに使用するデータを取得する(S144)。そして、平均化した画像をRGB、Grayの4色に分ける(S145)。平均化した各画像を、RGBとGray画像に分ける。Gray画像は人間の目で見たのと近いように0.299*red+0.587*green+0.144*blueとする。そして、グレイ画像を半分のサイズ(面積で4分の1)にしてメモリ上にとっておく(S146)。取得したグレイ画像を半分の倍率に縮小し、メモリ上に確保しておく。この際面積では元のサイズの4分の1とする(S147)。RGB、Grayごとに1つ前の画像と引き算で画像差分をとる。より明るくなった部分とより暗くなった部分を求め、そのトータルグレイ値(面積とグレイ値(0〜255)の積分値)を取得する(S148)。これは、以下の(1)〜(3)の処理による。
(1)RGB、Gray画像ごとに現在の画像から一つ前の画像を引いて、一つ前の画像より明るくなった部分を画像として取得する(図34(a)、(b)、(c))。
(2)同様に一つ前の画像から現在の画像を引いて、より暗くなった部分を画像として取得する。
(3)取得した差分画像のトータルグレイ値(白く表示される部分の面積と明るさの積分値)をRGB、Grayごとに取得する。
これで、動画を静止画に切り出したときの1枚の画像あたり、8個のトータルグレイ値が取得できる。明るくなった画像と暗くなった画像がそれぞれRGB、Grayの4チャンネル分あることとなる。
Further, data used for comparison is acquired after synchronizing the expected value and the actual measurement value in a later step (S144). Then, the averaged image is divided into four colors of RGB and Gray (S145). Each averaged image is divided into RGB and Gray images. The gray image is 0.299 * red + 0.587 * green + 0.144 * blue so that it is close to what the human eye sees. Then, the gray image is reduced to a half size (1/4 in area) and stored on the memory (S146). The acquired gray image is reduced to a half magnification and secured in the memory. At this time, the area is set to a quarter of the original size (S147). An image difference is obtained by subtraction from the previous image for each of RGB and Gray. A brighter part and a darker part are obtained, and the total gray value (integrated value of area and gray value (0 to 255)) is obtained (S148). This is due to the following processes (1) to (3).
(1) For each RGB, Gray image, the previous image is subtracted from the current image, and a portion that is brighter than the previous image is acquired as an image (FIGS. 34A, 34B, and 34C). )).
(2) Similarly, the current image is subtracted from the previous image, and a darker portion is acquired as an image.
(3) The total gray value (the integrated value of the area and brightness of the portion displayed in white) of the acquired difference image is acquired for each of RGB and Gray.
Thus, eight total gray values can be acquired per image when a moving image is cut into a still image. The brightened image and the darkened image have four channels of RGB and Gray, respectively.

次にRGB、Grayごとに取得した差分画像を合わせる。この画像に閾値処理をかけて差分のあった領域を取得する(S148)。これは、以下の(1)〜(2)の処理による。
(1)RGB、Grayごとに取得した差分画像をRGB、Grayの4チャンネル分足す。
(2)この4チャンネル分足した差分画像にパラメータ(約50)で閾値処理をかけ明るい部分を領域として取得する(このパラメータはユーザ側で指定できる)。
これで、カラー画像としてより明るくなった部分の領域とより暗くなった部分の領域が取得できる。
Next, the difference images acquired for each of RGB and Gray are combined. An area having a difference is obtained by performing threshold processing on this image (S148). This is due to the following processes (1) to (2).
(1) The difference image acquired for each of RGB and Gray is added for four channels of RGB and Gray.
(2) The difference image obtained by adding four channels is subjected to threshold processing with a parameter (about 50) to obtain a bright part as an area (this parameter can be specified by the user).
As a result, a brighter area and a darker area can be acquired as a color image.

より明るくなった画像と暗くなった画像を合わせ、閾値処理をかけ前後の画像で差分のあった領域を取得する(S149)。この領域の重心を求める。これは以下の(1)〜(4)の処理による。
(1)(S148)で取得したより明るくなった部分を示す差分画像とより暗くなった部分を示す差分画像を足して一つの画像にし、一つ前との差分画像を取得する。
(2)パラメータ(約50)で閾値処理をかけ明るい部分を領域として取得する。(このパラメータはユーザ側で指定できる)この領域が一つ前の画像との差分領域になる。
(3)(2)で取得した領域の重心位置を求める。前の画像と差がなく、差分の領域面積がゼロの場合は画像の中心位置を代入する。
(4)より明るくなった部分を示す差分画像とより暗くなった部分を示す差分画像をそれぞれ半分のサイズに縮小し、メモリ上に確保しておく(面積では4分の1)。
The brighter image and the darker image are combined, threshold processing is performed, and an area having a difference between the previous and subsequent images is acquired (S149). Find the center of gravity of this area. This is due to the following processes (1) to (4).
(1) The difference image indicating the brighter portion acquired in (S148) and the difference image indicating the darker portion are added to form one image, and the previous difference image is acquired.
(2) Threshold processing is performed with a parameter (about 50), and a bright part is acquired as a region. (This parameter can be specified by the user) This area is the difference area from the previous image.
(3) The center-of-gravity position of the area acquired in (2) is obtained. If there is no difference from the previous image and the area area of the difference is zero, the center position of the image is substituted.
(4) The difference image indicating the brighter portion and the difference image indicating the darker portion are reduced to half the size and secured on the memory (one quarter in area).

動画のずれ時間を求め、実測値と期待値の撮影のタイミングを合わせる(S150)。ここで、期待値と実測値の撮影のタイミングが異なる場合や撮影時間が異なる場合でも判定できるよう、時間を合わせる必要がある。これは以下の(1)〜(4)の処理による。
(1)期待値と実測値を1枚ずつ、ずらしながら(S147)で取得したトータルグレイ値を比較していく。期待値と実測値の時間が重なっている間だけ、1コマごとにトータルグレイ値の差分をとり、その合計値を取得する。
(2)期待値と実測値のタイミングが合ったところではこの差分が極小値となるので、1つ前の値より小さく、1つ後の値より小さいところが候補となる。そして(f(n+1)−f(n))+(f(n−1)−f(n))が最も大きくなるnを求める。この差分が最も大きかったところを求めるずれ時間とする。
(3)RGB、Grayの4チャンネルで求められた時間が異なる場合は8個のデータの候補が多い順に選ぶ。
(4)RGB、Grayごとに取得された時間の候補が一致しない場合はすべてのチャンネルにてデータを合計し、その合計値が最も高かった場所(最も前後との差があった時間)をずれ時間とする。
The moving time of the moving image is obtained, and the timing of photographing the actual measurement value and the expected value is matched (S150). Here, it is necessary to match the time so that the determination can be made even when the shooting timing of the expected value and the actual measurement value is different or when the shooting time is different. This is due to the following processes (1) to (4).
(1) The total gray value acquired in (S147) is compared while shifting the expected value and the actual measurement value one by one. Only when the expected value and the measured value overlap, the difference of the total gray value is taken for each frame, and the total value is obtained.
(2) Since the difference is a minimum value when the timing of the expected value and the actual measurement value matches, the candidate is a position that is smaller than the previous value and smaller than the next value. Then, n is calculated such that (f (n + 1) −f (n)) + (f (n−1) −f (n)) is the largest. A place where this difference is the largest is taken as a deviation time.
(3) If the times obtained for the four channels of RGB and Gray are different, the data are selected in descending order of 8 data candidates.
(4) If the time candidates acquired for each of RGB and Gray do not match, the data is summed up for all channels, and the place where the total value was the highest (the time when there was the difference between before and after) is shifted. Time.

次に、実測値と期待値のずれを合わせた状態で、実測値と期待値のデータを比較する(S151)。即ち、ここでは、前の画像と比較して移動した部分の領域の重心位置を比較する(S152)。これは以下の(1)〜(3)の処理による。これは本例において、比較1となる。この比較1では、差分領域の重心位置を求め、場所の違いを求めるものである。
(1)期待値と実測値の同期を合わせてからS159で求めた期待値と実測値の各画像の重心位置を比較する。X座標、Y座標ごとに差を求め、それぞれが画像の幅・高さに対
してどれだけの割合かを求める(1−Xの差分/判定範囲の幅、1−Yの差分/判定範囲の高さ)。
(2)前記(1)を、切り出した画像分求めて平均値をとる。この値が低いと一致率が低いということになる(1に近いほど差がないということになる)。
(3)ここで求めた値(0〜1.0)を比較結果としてresult1とする。
Next, in a state where the deviation between the actual measurement value and the expected value is combined, the actual measurement value and the expected value data are compared (S151). That is, here, the barycentric positions of the areas moved compared with the previous image are compared (S152). This is due to the following processes (1) to (3). This is Comparative 1 in this example. In this comparison 1, the position of the center of gravity of the difference area is obtained, and the difference in location is obtained.
(1) After synchronizing the expected value and the actual measurement value, the center of gravity of each image of the expected value obtained in S159 and the actual measurement value is compared. The difference is calculated for each of the X and Y coordinates, and the ratio of each to the width / height of the image is determined (1−X difference / determining range width, 1−Y difference / determining range height).
(2) The above (1) is obtained for the cut-out image and the average value is taken. If this value is low, the coincidence rate is low (closer to 1, there is no difference).
(3) The value (0 to 1.0) obtained here is set as result 1 as a comparison result.

図35(a)、(b)で示した画像は、異なる個所でアイコンが点滅している画像を示ししており、この比較1により違う画像であると判断することができる。   The images shown in FIGS. 35A and 35B show images in which icons are blinking at different locations, and it can be determined that the images are different from this comparison 1.

より明るくなった領域と暗くなった領域ごとに、期待値と実測値の移動領域を比較する(S153)。これは以下の(1)〜(5)の処理による。   The moving area of the expected value and the actually measured value is compared for each of the brighter area and the darker area (S153). This is due to the following processes (1) to (5).

これは本例中の比較2となる。この比較2では、移動領域の差分をとり、動きの違いを見る。
(1)期待値と実測値の同期を合わせてから(S148)で求めた期待値と実測値の領域の差分をとる。
(2)次に、「期待値または実測値で移動のあった領域」を取得する。期待値、実測値共に輝度の増えた画像と減った画像(計4種)をすべて足して合成する。これに閾値処理をかけ、明るく表示される部分を領域として取得する。この領域に膨張収縮処理をかけ、ある程度の面積を持つ領域に絞る。これを「動きのあった領域」とする。
(3)輝度の増えた画像、減った画像ごとに期待値と実測値の差分を取得する。期待値と実測値が同じように変化している場合はこれらの差分をとることで、相殺されて領域がなくなるが、移動個所の異なる場合は差分をとってもその領域が残る。
(4)前記(3)の画像にパラメータ(約50)で閾値処理をかけ明るい部分を領域として取得する(このパラメータはユーザ側で指定できる)。輝度の増えた画像と減った画像の領域を足してひとつの移動差分領域として取得する。
(5)前記(2)で取得した「動きのあった領域」に対する(4)で取得した期待値と実測値の差分領域の割合を求める。次に、前記(2)で求めた「動きのあった領域」が画像の判定対象面積に対してどれだけの割合かを求める。この面積が小さい場合は(5)で取得した差分領域の割合よりさらに小さくする。処理が必要とされるのは、動きのあった面積が判定範囲の面積にたいして小さいというのは、動き自体が少ない動画となるからである。つまり、期待値と実測値の動画部分が異なったところで差は小さいということになるからである。以上より「動きのあった領域」に対する期待値と実測値の差分領域の割合(0〜1)を1から引くと、期待値と実測値が同じように動いた割合(一致率)を求めることができる。この値は大きいほど(1に近いほど)一致率が高くなる。
(6)前記(5)の値をすべての画像で求め、画像枚数で割ることにより画像1枚あたりの平均値を求める。ここで求めた値(0〜1.0)を比較結果result2とする。
This is comparison 2 in this example. In this comparison 2, the difference between the movement areas is taken to see the difference in motion.
(1) After synchronizing the expected value and the actual measurement value, the difference between the expected value and the actual measurement value obtained in (S148) is obtained.
(2) Next, “the region where the expected value or the measured value has moved” is acquired. Both the expected value and the actually measured value are combined by adding all the images with increased brightness and the images with decreased brightness (total 4 types). This is subjected to threshold processing, and a brightly displayed portion is acquired as a region. This region is subjected to an expansion / contraction process to narrow it to a region having a certain area. This is referred to as “a region where movement has occurred”.
(3) The difference between the expected value and the actual measurement value is acquired for each image with increased and decreased luminance. If the expected value and the actual measurement value are changed in the same way, these differences are taken to cancel each other and the area disappears. However, if the moving parts are different, the area remains even if the difference is taken.
(4) The image of (3) is subjected to threshold processing with a parameter (about 50) to obtain a bright part as a region (this parameter can be specified by the user). The area of the image with the increased brightness and the area of the decreased image are added to obtain one movement difference area.
(5) The ratio of the difference area between the expected value acquired in (4) and the actually measured value with respect to the “region with movement” acquired in (2) is obtained. Next, the ratio of the “region with movement” obtained in (2) to the determination target area of the image is obtained. When this area is small, it is made smaller than the ratio of the difference area acquired in (5). The reason why the processing is required is that the moving area is smaller than the area of the determination range because the moving image is less moving. That is, the difference is small where the moving image portion of the expected value and the actually measured value is different. As described above, by subtracting the ratio of the difference area between the expected value and the actual measurement value (0 to 1) with respect to the “region with movement” from 1, the ratio (coincidence ratio) in which the expected value and the actual measurement value moved in the same way Can do. The greater this value (the closer to 1), the higher the coincidence rate.
(6) The value of (5) is obtained for all images, and the average value per image is obtained by dividing by the number of images. The value (0 to 1.0) obtained here is set as a comparison result result2.

図36(a)、(b)で示した2枚の画像をこの比較2により違う画像であると判断することができる。   It can be determined that the two images shown in FIGS. 36A and 36B are different images based on this comparison 2.

縮小した画像の画像差分をとることで比較し、背景も含めて画像全体がどれだけ異なるかを比較する(S154)。これは以下の(1)〜(2)の処理による。これは本例中の比較3となる。この比較3では、画像の絶対値で判定する、即ち本比較3では静止状態での違いを見るのである。
(1)期待値と実測値の同期を合わせ、合わせた時間同士でS156で取得した期待値と実測値の画像の差分をとる。まず期待値と実測値で位置合わせを行う。具体的には期待値を基準に実測値画像に対してパターンマッチングを行い、見つかった位置にアフィン変換で実測値を移動させる。期待値と実測値の時間が重なる場合はすべての画像において位置合わせを行う。位置合わせを行った後、期待値と実測値の画像差分をとる。
(2)前記(1)で取得した期待値と実測値の差分領域から、S163−(2)で取得した動きのあった領域を引く。これによって背景(静止画部分)のみの違いを取得することができる。差分画像に閾値処理をかけ、のこった面積が大きいほど一致率が低くなる。
(3)この面積は100%異ならなくても人間の目では充分異なっていることが分かるので、結果(<1)を2乗した値を答えとする。
(4)ここで求めた値(0〜1.0)をさらに2乗し、比較結果としてresult3とする。なお、画像の絶対値比較は他の処理では行われない。他の処理はすべて相対位置での比較のため、画像全体の明るさが異なるときなどは比較しても同じと判断されてしまうからである。
Comparison is made by taking the image difference of the reduced images, and how much the entire image including the background is different is compared (S154). This is due to the following processes (1) to (2). This is comparison 3 in this example. In this comparison 3, determination is made based on the absolute value of the image, that is, in this comparison 3, the difference in the stationary state is seen.
(1) Synchronizing the expected value and the actual measurement value, and taking the difference between the expected value acquired in S156 and the image of the actual measurement value in the combined time. First, alignment is performed using expected values and measured values. Specifically, pattern matching is performed on the actual measurement value image based on the expected value, and the actual measurement value is moved to the found position by affine transformation. When the time of the expected value and the actual measurement value overlap, alignment is performed for all images. After alignment, an image difference between the expected value and the actual measurement value is obtained.
(2) From the difference area between the expected value and the actual measurement value acquired in (1), the area having the motion acquired in S163- (2) is subtracted. As a result, a difference only in the background (still image portion) can be acquired. Threshold processing is applied to the difference image, and the greater the area left, the lower the matching rate.
(3) Since this area can be seen to be sufficiently different in the human eye even if it does not differ by 100%, the value obtained by squaring the result (<1) is taken as the answer.
(4) The value (0 to 1.0) obtained here is further squared to obtain result 3 as a comparison result. Note that the absolute value comparison of images is not performed in other processes. This is because all the other processes are compared at relative positions, and therefore, when the brightness of the entire image is different, it is determined that the comparison is the same.

図37(a)、(b)で示した2枚の画像をこの比較3により違う画像であると判断することができる。   It is possible to determine that the two images shown in FIGS. 37A and 37B are different images by this comparison 3.

そして、以上の比較要素を掛け算し、最終結果を得る(S155)。期待値と実測値の同期を合わせてから前記のresult1、result2、result3の結果を取得し、これらの積をとる(値は、0〜1.0となる)。これに100をかけて%に対応させた結果を返す。   Then, the above comparison elements are multiplied to obtain a final result (S155). After synchronizing the expected value and the actual measurement value, the result of the result 1, result 2, and result 3 are acquired, and the product of these is obtained (the value is 0 to 1.0). Multiply this by 100 and return the result corresponding to%.

そして、結果(0〜100)を返す(S156)ことにより、この値が閾値以上である場合、合格とし、閾値未満である場合不合格とする。そして、次に本発明に係る機器、装置の機能チェック装置の音声判定を図38ないし図40に基づいて説明する。本例では、DTMF判定(図38)、BT/RBT判定(図39)、メロディ判定(図40)の3つの判定を行う。   And by returning a result (0-100) (S156), when this value is more than a threshold value, it is set as a pass, and when it is less than a threshold value, it is set as a failure. Next, the sound determination of the function check apparatus for the device and apparatus according to the present invention will be described with reference to FIGS. In this example, three determinations are made: DTMF determination (FIG. 38), BT / RBT determination (FIG. 39), and melody determination (FIG. 40).

まず、DTMF判定を、図38に基づいて説明する。
DTMF(Dual Tone Multi Frequency)は、電話のボタン(0〜9、*、#)ごとに割り当てられている、2種類の周波数からなる音声信号である。DTMF判定では、マイクで収音した実測値を解析し、実測値に含まれる音声信号の種類が、期待値として指定されているDTMF番号(0〜9、*、#)と一致するかどうかを判定する。
First, DTMF determination will be described with reference to FIG.
DTMF (Dual Tone Multi Frequency) is an audio signal composed of two types of frequencies assigned to each telephone button (0 to 9, *, #). In the DTMF determination, an actual measurement value collected by the microphone is analyzed, and whether or not the type of the audio signal included in the actual measurement value matches the DTMF number (0 to 9, *, #) designated as the expected value. judge.

DTMF音は、それぞれ予め定められた固有の周波数の組合せであるため期待値として利用するのは各DTMFの周波数情報であり、期待値としての音データは保持しない。各番号に対応する周波数情報は、図41に示す通りである。   Since the DTMF sound is a combination of predetermined specific frequencies, the frequency information of each DTMF is used as the expected value, and the sound data as the expected value is not retained. The frequency information corresponding to each number is as shown in FIG.

以下に判定の手順を示す。
まず、押しボタンを操作し(S211)実測値の中で最大音量を記録している周波数を2点取得して(S212)、この値を期待値WAVEファイルを読み込む。
The determination procedure is shown below.
First, the push button is operated (S211), and two frequencies at which the maximum volume is recorded among the actually measured values are acquired (S212), and the expected value WAVE file is read with these values.

次に、読み込んだWAVEデータをFFT(Fast Fourier Transform:高速フーリエ変換)にかけて、周波数毎の音量レベルを表す音量データ配列を取得する(S213)。すると、配列のインデックスが周波数帯域を表し、インデックス毎のデータが音量レベルとなる。   Next, the read WAVE data is subjected to FFT (Fast Fourier Transform) to obtain a volume data array representing a volume level for each frequency (S213). Then, the array index represents the frequency band, and the data for each index is the volume level.

次に取得した音量データを、DTMFの周波数帯域が記録されていると思われる帯域を低域と高域の2つ(650Hz〜970Hz、1150Hz〜1500Hz)に分ける(S214)。この2つに分けた帯域から、それぞれ最も大きい音量レベルが記録されているデータを1点取得する(S214)。この2つのデータをDTMF音の実測値の周波数とする。   Next, the acquired volume data is divided into two bands (650 Hz to 970 Hz, 1150 Hz to 1500 Hz) that are considered to be recorded with the frequency band of DTMF (S214). One point of data in which the highest volume level is recorded is acquired from each of the two divided bands (S214). These two data are used as the frequency of the actual measurement value of the DTMF sound.

さらに、期待値として指定されているDTMF番号の周波数(2点)と、実測値から割り出された周波数(2点)の低域同士と高域同士でそれぞれ比較し(S216)、固定の許容誤差範囲(±20Hz)内であれば一致していると判定する(S217、S218)。この許容誤差外であるときは不良であると判定する(S219)。次に、BT/RBT(ビジートーン/リングバックトーン)判定を図37に基づいて説明する。ここで、BT/RBT(ビジートーン/リングバックトーン)とは、それぞれ以下の意味を持つ。即ち、BT(ビジートーン)は、電話の話中状態を表す音声信号(プーッ・プーッという音)(・は無音)であり、RBT(リングバックトーン)は、電話の呼び出し状態を表す音声信号(プルルルル・プルルルルという音)である前記の「プーッ」、もしくは「プルルルル」の部分をONデータと呼び、「・」の部分をOFFデータと呼ぶ。   Further, the frequency of the DTMF number designated as the expected value (2 points) is compared with the low range and the high range of the frequency (2 points) calculated from the actual measurement values (S216), and a fixed tolerance is set. If it is within the error range (± 20 Hz), it is determined that they match (S217, S218). If it is out of this allowable error, it is determined to be defective (S219). Next, BT / RBT (busy tone / ringback tone) determination will be described with reference to FIG. Here, BT / RBT (busy tone / ringback tone) has the following meanings. That is, BT (Busy Tone) is a voice signal (poop-peep) (· is silent) that represents the busy state of the telephone, and RBT (Ring Back Tone) is a voice signal (PururuLuru) that represents the telephone ringing state. The part “Poo” or “Purururu” that is a sound of “Pururu Ruru” is called ON data, and the “·” part is called OFF data.

BT/RBT判定では、マイクで収音した実測値を解析し、実測値に含まれる音声信号の種類が、期待値として指定されているBT、もしくはRBTと一致するかどうかを判定する。   In the BT / RBT determination, an actual measurement value collected by the microphone is analyzed, and it is determined whether or not the type of the audio signal included in the actual measurement value matches the BT designated as the expected value or the RBT.

RBT、BTにはそれぞれ特有の鳴動パターン(OFFデータとONデータの間欠パターン)があるため、そのパターンを数値化したものを期待値として利用する。よってこの処理で利用する音データは実測値のみとなる。   Since RBT and BT each have a unique ringing pattern (intermittent pattern of OFF data and ON data), a numerical value of the pattern is used as an expected value. Therefore, the sound data used in this process is only an actual measurement value.

以下に判定の具体的な手順を示す。
まず、押しボタンを操作して(S221)鳴動音を取得する(S222)し、期待値WAVEファイルを読み込む。次に、読み込んだWAVEデータをFFTにかけて、周波数毎の音量レベルを表す音量データ配列を取得する(S223)。この処理で、配列のインデックスが周波数帯域を表し、インデックス毎のデータが音量レベルとなる(S224)。
The specific procedure for determination is shown below.
First, a push button is operated (S221) to obtain a ringing sound (S222), and an expected value WAVE file is read. Next, the read WAVE data is subjected to FFT to obtain a volume data array representing a volume level for each frequency (S223). In this process, the array index represents the frequency band, and the data for each index is the volume level (S224).

次に、音量データ配列の内容がBT/RBTの周波数帯域(400Hz±20Hz)と一致するかどうか調べる(S225)。所定の許容誤差範囲内で一致する場合はONデータであると判断し、そうでない場合はOFFデータであると判断する。これを時間軸に沿って調べて、ONデータとOFFデータの数を算出した鳴動パターン配列を取得する。   Next, it is examined whether or not the content of the volume data array matches the BT / RBT frequency band (400 Hz ± 20 Hz) (S225). If they match within a predetermined allowable error range, it is determined that the data is ON data. Otherwise, it is determined that the data is OFF data. This is examined along the time axis, and a ringing pattern array in which the number of ON data and OFF data is calculated is acquired.

次に、期待パターンと取得した鳴動パターンを比較する。これには、まず実測パターンの有効部分を認識する。このとき、実測値の最初にOFFデータが含まれている場合はその部分を切り捨てて、ONデータから始まる部分をデータの有効部分とみなす。   Next, the expected pattern and the acquired ringing pattern are compared. For this, first, an effective portion of the actual measurement pattern is recognized. At this time, when OFF data is included at the beginning of the actual measurement value, the portion is discarded, and the portion starting from the ON data is regarded as the effective portion of the data.

そして、期待パターンと実測パターンを、実測パターンの有効部分から時間軸に沿って比較する。それぞれの鳴動間隔ごとのON/OFFデータの要素数の差が指定の誤差範囲未満であれば、その位置は指定トーンのパターンの一部であるとみなす。   Then, the expected pattern and the actual measurement pattern are compared along the time axis from the effective portion of the actual measurement pattern. If the difference in the number of ON / OFF data elements for each ringing interval is less than the specified error range, the position is considered to be part of the specified tone pattern.

そして、期待パターンと同じパターンが一定範囲持続している場合に、一致していると判定し、そうでない場合は不一致とする。   Then, when the same pattern as the expected pattern is maintained for a certain range, it is determined that they are matched, and otherwise they are not matched.

次に、図38に基づいて、メロディ判定の説明をする。本例でメロディとは、前述のDTMF、BT/RBT以外の、音階変化のある音データのことをいうものとする。   Next, melody determination will be described based on FIG. In this example, the melody refers to sound data having a scale change other than the above-described DTMF and BT / RBT.

メロディ判定では、マイクで収音した実測値を解析し、実測値に含まれる。音データが、期待値として指定されている音データと内容がどれくらい一致しているかということを一致率で表す。   In the melody determination, an actual measurement value collected by the microphone is analyzed and included in the actual measurement value. The degree of coincidence represents how much the sound data matches the sound data designated as the expected value.

一致率を求める処理、及び一致率を求めるためのデータ生成には、一般に使用される音声ライブラリ(例えば、Animo社のVoiceBaseIIライブラリ)を用いる。判定結果の合否は、システムの既定値またはユーザの設定した一致率閾値を判定処理で取得した一致率の値が上回るかどうかで合否判定を行う。   For the process for obtaining the coincidence rate and for generating data for obtaining the coincidence rate, a generally used audio library (for example, VoiceBase II library from Animo) is used. Whether the determination result is acceptable or not is determined based on whether or not the value of the coincidence rate acquired by the determination process exceeds the system default value or the coincidence rate threshold set by the user.

この処理で利用する音データは期待値、及び実測値の2つとなる。まず、期待値と実測値とをもとに、それぞれの処理データを取得する。即ち、期待値、実測値のWAVEファイルを読み込む(S231)。次に、無音区間検出(音声ライブラリ使用)を行い、有効データの開始位置を取得する(S232)。このとき、期待値と実測値の有効データ長をもとに、処理データの単位(1フレーム)ごとのデータ量を決める。   The sound data used in this process is two values, an expected value and an actual measurement value. First, each processing data is acquired based on an expected value and an actual measurement value. That is, a WAVE file of expected values and measured values is read (S231). Next, silent section detection (using a voice library) is performed, and the start position of valid data is acquired (S232). At this time, the data amount for each unit of processing data (one frame) is determined based on the effective data length of the expected value and the actually measured value.

次に、処理データを窓関数(音声ライブラリ)にかけ、FFTフィルタバンク分析(音声ライブラリ)を行い、マッチング処理用の処理データを取得する(S233)。次に、DP法(音声ライブラリ)による期待値と実測値の比較処理を行い、比較結果の距離データを取得する(S234)。そして、取得した距離データから一致率を算出する(S236)。   Next, the processing data is subjected to a window function (speech library), FFT filter bank analysis (speech library) is performed, and processing data for matching processing is acquired (S233). Next, a comparison process between the expected value and the actual measurement value by the DP method (voice library) is performed, and distance data of the comparison result is acquired (S234). Then, the coincidence rate is calculated from the acquired distance data (S236).

さらに、算出された一致率が、指定の一致率閾値よりも大きい場合に一致していると判定し、閾値未満の場合不一致と判定する(S236〜S238)。   Further, when the calculated match rate is larger than the specified match rate threshold value, it is determined that they match, and when it is less than the threshold value, it is determined that they do not match (S236 to S238).

これらの処理を予め定めたメロディについて行い音声判定処理は終了する。   These processes are performed for a predetermined melody, and the voice determination process ends.

次にPDA1に対する自動テストを図42〜図44を参照しつつ説明する。
上述した携帯電話の場合と同様に、まず環境設定として、ロボット10のレリーズ6が押すタッチパネル(LCDパネル3)に表示されているボタン5やハードウェアとしてボタン5等の位置のティーチング、カメラから撮影する画面の設定、ボタン表示位置の設定を行う。評価機の設定を切り替えて複数の機種を扱うことが可能でる点も同様である。次にコンピュータ8付属のマウス8aの操作でタッチパネルに表示されているボタン5やハードウェアとしてボタン5の擬似的操作を行う。すなわち、図43に示すような擬似画面上をマウスクリックすると、ロボット10のレリーズ6がその位置まで移動し、実際に検査対象機であるPDAのタッチパネルを押下する。例えばロボットがアイコンを探して押下するので、ポップアップメニューのようにタッチパネル上のボタンの位置が毎回変わる場合でも大丈夫であり、押下位置を画像で登録することでボタンの表示位置が変わっても、それを認識してロボットが押すことができる。コンピュータ8は、上述のようなマウスクリックや擬似動作、実動作でシナリオ作成する。具体的には、これも上述のように、テスト手順をテストシナリオというスクリプトに記述する。高度な分岐・条件文もマウスクリックで簡単に記述することが可能である。すなわち、擬似画面上でボタンを操作すると自動でシナリオが書き込まれる。そして、シナリオに従ってロボット10が評価機1を操作し、カメラ4で画像を撮影する。操作内容や画像は全てデータベースに登録される。
Next, an automatic test for the PDA 1 will be described with reference to FIGS.
As in the case of the mobile phone described above, first, as environment settings, teaching is performed at the position of the button 5 displayed on the touch panel (LCD panel 3) pressed by the release 6 of the robot 10 or the button 5 as hardware, and shooting from the camera. Set the screen to be used and the button display position. The same is true in that it is possible to handle a plurality of models by switching the setting of the evaluator. Next, a pseudo operation of the button 5 displayed on the touch panel or the button 5 as hardware is performed by operating the mouse 8a attached to the computer 8. That is, when the mouse is clicked on the pseudo screen as shown in FIG. 43, the release 6 of the robot 10 moves to that position, and the touch panel of the PDA that is actually the inspection object machine is pressed. For example, the robot looks for an icon and presses it, so even if the position of the button on the touch panel changes every time like a pop-up menu, it is okay if the button display position changes by registering the pressed position with an image. Can be recognized by the robot. The computer 8 creates a scenario by mouse click, pseudo operation, and actual operation as described above. Specifically, as described above, the test procedure is described in a script called a test scenario. Advanced branching and conditional statements can be easily written with a mouse click. That is, when a button is operated on the pseudo screen, the scenario is automatically written. Then, the robot 10 operates the evaluator 1 according to the scenario, and takes an image with the camera 4. All operation contents and images are registered in the database.

ついで画像の判定を行う。これは、静止画判定、OCR判定、SEARCH判定、動画判定、音声判定など自動で判定を行う。「と」、「i」、「j」など、微妙な違いも確実に判定できることが望ましい。そして結果確認を行い、テスト結果一覧からすぐに不具合箇所を見つけ、結果報告として、必要な情報を、テスト結果をCSVファイル出力機能や印刷機能を利用して、簡単に出力すればよい。   Next, the image is determined. This is determined automatically such as still image determination, OCR determination, SEARCH determination, moving image determination, audio determination and the like. It is desirable that subtle differences such as “to”, “i”, and “j” can be reliably determined. Then, the result is confirmed, and a defective part is immediately found from the test result list. As a result report, necessary information is simply output using the CSV file output function or the print function.

なお、既に述べたプランジャーユニットや、XYタイプのロボットは、評価対象機器としては最も多く利用されるものとなっているが、プランジャーユニットタイプのロボットを使用すると、同時押し、早押し、開閉、背面液晶のテストが行える。一方、XYタイプのロボットを使うと評価機器が変わっても簡単に取り外し、固定ができ、機体のタイプの変更がある場合にもすぐに対応できる。   The plunger unit and XY type robot already described are the most frequently used devices for evaluation. However, when a plunger unit type robot is used, simultaneous pressing, quick pressing, opening and closing, You can test the rear LCD. On the other hand, if an XY type robot is used, it can be easily removed and fixed even if the evaluation equipment changes, and it can respond immediately when there is a change in the type of aircraft.

次に評価対象機器をカーナビ、カーオーディオとした実施例を図44を参照して説明する。使用するロボットのタイプは、6軸ロボット200(図44A)とプランジャーユニット20(図45B)が考えられるが、いずれを用いてもタッチパネル3の操作はもちろんのこと、ダイヤル202をつまんで回すこともできるので(プランジャーユニット20については機構の図示を省略してあるが、簡単な構造のアダプタ204を用いることで可能となる)、ボリュームの調整も可能である。三次元操作で画面が傾いていても正面から画面を押すことが可能である。   Next, an embodiment in which the evaluation target devices are car navigation and car audio will be described with reference to FIG. The 6-axis robot 200 (FIG. 44A) and the plunger unit 20 (FIG. 45B) can be considered as the types of robots to be used. In any case, the touch panel 3 can be operated and the dial 202 can be pinched and turned. (Although the illustration of the mechanism of the plunger unit 20 is omitted, it is possible to use the adapter 204 with a simple structure), the volume can be adjusted. Even if the screen is tilted by three-dimensional operation, it is possible to press the screen from the front.

また6軸ロボット200を用いれば、CDチェンジャー206の操作(図44C)も可能である。評価対象機器のテストと併せてCD208の出し入れを自動で行うことができる。テスト対象機器がカーナビ210の場合のCD208やDVD212の出し入れを6軸ロボット200が自動で行い、CDチェンジャー206やカーナビ210自体もコンピュータ8から制御できる。   If the 6-axis robot 200 is used, the CD changer 206 can be operated (FIG. 44C). In conjunction with the test of the device to be evaluated, the CD 208 can be automatically taken in and out. When the test target device is the car navigation system 210, the six-axis robot 200 automatically inserts and removes the CD 208 and the DVD 212, and the CD changer 206 and the car navigation system 210 can be controlled from the computer 8.

なお、車関連の検査としては、図46に示すように電源の制御が行える。低電圧状態やイグニッションをONにしたときの電圧状態など、QCからプログラマブル電源を操作することにより、電圧状態を変えたテストができる。図示の例では、供給電圧9.5Vでディスプレイの表示に問題が無く、供給電圧7.5Vでディスプレイの一部の表示が消えた(図中矢印Xで示す部分)例を示す。   In the car-related inspection, the power supply can be controlled as shown in FIG. By operating the programmable power supply from the QC, such as a low voltage state or a voltage state when the ignition is turned on, a test in which the voltage state is changed can be performed. The example shown in the figure shows an example in which there is no problem in display on the display at the supply voltage of 9.5V, and part of the display on the display disappears at the supply voltage of 7.5V (part indicated by the arrow X in the figure).

また、図47に示すように、CANシミュレータ300との連携もなし得る。すなわち、CANインターフェースを持つ車載機器の開発、検証時に広く使用されているCANシミュレータ(商品名:CANoe)との連携テストが行える。コンピュータ8側でCANシミュレータを制御することにより、CANの環境を変更させながら実機を操作するといった連携試験を行える。   In addition, as shown in FIG. 47, cooperation with the CAN simulator 300 can be achieved. That is, it is possible to perform a linkage test with a CAN simulator (product name: CANoe) widely used in the development and verification of in-vehicle devices having a CAN interface. By controlling the CAN simulator on the computer 8 side, it is possible to perform a collaborative test such as operating the actual machine while changing the CAN environment.

また話し言葉判定にも使用できる。すなわち、人の話し言葉を認識して自動判定を行い、これによって、カーナビの音声案内や、外国語対応した組込み機器のマルチランゲージ試験の自動化を実現可能とするのである。図48の例では音声案内などをマイク302で録音し、録音した音あるいは音声が期待値の波形と同じものであるか否かを判定している。   It can also be used to determine spoken language. That is, it recognizes a person's spoken language and makes an automatic determination, thereby making it possible to automate the voice guidance of a car navigation system and the multi-language test of an embedded device that supports foreign languages. In the example of FIG. 48, voice guidance or the like is recorded by the microphone 302, and it is determined whether or not the recorded sound or voice has the same waveform as the expected value.

なお、以上の説明で検査対象機器としてきたタッチパネル等がRGB入力で出力する画像データをそのまま取り込むことができる。歪みのない高い解像度の画像を取り込むことができるので、画像判定も高い精度で行うことができ、大きなディスプレイを搭載している機器にも対応可能となる(図49参照)。またプログラマブル表示器ではタッチパネル3を操作するだけでなく、各種PLC3bと連携稼動し、より実際の環境に近いテストを実行することもできる(図50参照)。さらに、タッチパネル3の画面3a上に表示された文字をカメラ4で撮影した画像を基に、OCRにより文字認識を行い、見つけ出した文字の座標位置にロボットのアームやプランジャーを誘導することもできる(図51参照)。図示の例では、実測画像(図51A)中の「証明書」という文字列を認識し、タッチパネル3の画面上で文字列に対応する位置において実際にロボットがアームやプランジャーを作動させるのである。   Note that image data output by RGB input by the touch panel or the like that has been used as the inspection target device in the above description can be captured as it is. Since a high-resolution image without distortion can be captured, image determination can be performed with high accuracy, and it is possible to deal with a device equipped with a large display (see FIG. 49). In addition, the programmable display not only operates the touch panel 3, but can also operate in cooperation with various PLCs 3b to execute a test closer to the actual environment (see FIG. 50). Furthermore, based on the image which the character displayed on the screen 3a of the touch panel 3 image | photographed with the camera 4, character recognition can be performed by OCR, and the arm and plunger of a robot can also be guide | induced to the coordinate position of the found character. (See FIG. 51). In the illustrated example, the character string “certificate” in the actual measurement image (FIG. 51A) is recognized, and the robot actually operates the arm and the plunger at the position corresponding to the character string on the screen of the touch panel 3. .

さらに本発明は、図52に示すように、赤外線リモコン操作を行えるデジタル家電機器400に対して本実施例装置が赤外線信号を制御するように構成できる。図中401はコントローラ、402は赤外線発信器である。すなわち、通常使用する赤外線リモコンに代わって本実施例装置が赤外線信号を制御する。学習リモコン機能を有するコントローラ401に赤外線信号を登録しておくことで、学習リモコンと同じ操作が可能となる。本実施例装置のモニタ9の画面上で学習リモコンと同じ操作を行うと、コントローラ401を介してそれに対応する赤外線信号が赤外線発信器402から出力される。そして、赤外線入力に応じて変化する画面の内容をカメラ又はRGB入力で取り込めば上述のような機器、装置の機能チェック用のシステムを構成できる。また図52の例の変形例になるが、例えば図53に示すように、物理的に操作するプランジャーユニット7とコントローラ401と赤外線発信器402による赤外線制御を合体させることで、DVDデッキのようなデジタル家電機器400を赤外線信号で操作しつつ、実機についているボタンをプランジャーユニット7のレリーズ6で押すといった試験を自動化することができる。   Furthermore, as shown in FIG. 52, the present embodiment can be configured such that the apparatus of this embodiment controls an infrared signal for a digital home appliance 400 capable of performing an infrared remote control operation. In the figure, 401 is a controller, and 402 is an infrared transmitter. That is, the apparatus of this embodiment controls the infrared signal instead of the normally used infrared remote controller. By registering an infrared signal in the controller 401 having the learning remote control function, the same operation as that of the learning remote control can be performed. When the same operation as that of the learning remote controller is performed on the screen of the monitor 9 of the present embodiment apparatus, an infrared signal corresponding to the operation is output from the infrared transmitter 402 via the controller 401. Then, if the contents of the screen that changes in accordance with the infrared input are captured by the camera or RGB input, a system for checking the functions of the devices and apparatuses as described above can be configured. 52 is a modification of the example of FIG. 52. For example, as shown in FIG. 53, by combining the infrared control by the plunger unit 7, the controller 401, and the infrared transmitter 402 that are physically operated, It is possible to automate a test in which a digital home appliance 400 is operated with an infrared signal and a button attached to the actual machine is pushed by the release 6 of the plunger unit 7.

図54は操作内容がそのままテストシナリオになる機能を有する赤外線リモコン500とそのディスプレイ内容の一例を示す。赤外線リモコン500のボタン501を押すと、例えば「ボタンを押す」というコマンドがシナリオに記述されるようにして実現できる。   FIG. 54 shows an example of an infrared remote controller 500 having the function of directly changing the operation contents into a test scenario and the display contents thereof. When the button 501 of the infrared remote controller 500 is pressed, for example, a command “press button” can be realized in the scenario.

また本発明の実施例装置は、Windows(登録商標)アプリケーションの自動評価に使用できる。図55はそのような実施例を示す。このような構成とすることにより、例えばWindows(登録商標)をインストールしたパソコン600のマウスやキーボード601のような入力機器からの入力を擬似的に自動操作することができ、また他のマニピュレーターと同時に使用することができるので、XYロボット10で携帯電話を操作しながらPCとの連携試験を行うといったことが可能となる。   In addition, the embodiment apparatus of the present invention can be used for automatic evaluation of Windows (registered trademark) applications. FIG. 55 shows such an embodiment. With such a configuration, for example, input from an input device such as a mouse or keyboard 601 of a personal computer 600 in which Windows (registered trademark) is installed can be pseudo-automatically operated, and simultaneously with other manipulators. Since it can be used, it is possible to perform a cooperation test with a PC while operating the mobile phone with the XY robot 10.

図55、図56を用い、Windows(登録商標)をインストールしたパソコン(以下クライアントPCという)600を用いて行うアプリケーションの連携試験の流れを説明する。
まず、本発明実施例装置でクライアントPC600を操作する。本発明実施例装置のモニタ9のディスプレイに、クライアントPC600のデスクトップ画面を擬似画面として表示させる。この擬似画面を本発明実施例装置側のキーボード8aやマウス8bで操作すると、同時にクライアントPC600が操作されます。操作内容は自動的にシナリオとして入力される(図56A)。
The flow of an application collaboration test performed using a personal computer (hereinafter referred to as a client PC) 600 in which Windows (registered trademark) is installed will be described with reference to FIGS. 55 and 56.
First, the client PC 600 is operated by the embodiment apparatus of the present invention. The desktop screen of the client PC 600 is displayed as a pseudo screen on the display of the monitor 9 of the embodiment of the present invention. When this pseudo screen is operated with the keyboard 8a and mouse 8b on the side of the embodiment of the present invention, the client PC 600 is simultaneously operated. The operation content is automatically input as a scenario (FIG. 56A).

次にロボット10とクライアントPC600の両方を操作する。図56(B)に示すように、画面を切り替えることでロボット10とクライアントPC600の両方の擬似画面を操作でき、ロボット10の操作とクライアントPC600の操作を組み合わせることで、例えばクライアントPC600から携帯電話1を操作して音楽検索をするなど、クライアントPC600とテスト対象機器である携帯電話1を連動させたテストを行う。そして、図示は省略するが、テスト結果をデータベースに保存し、期待値と実測値を自動で比較・判定する。評価対象機器である例えば携帯電話1側とクライアントPC600側の両方の画像が判定される。判定結果は例えばデータベースに保存すればよい。   Next, both the robot 10 and the client PC 600 are operated. As shown in FIG. 56 (B), the pseudo screens of both the robot 10 and the client PC 600 can be operated by switching the screen. For example, by combining the operation of the robot 10 and the operation of the client PC 600, the mobile phone 1 from the client PC 600, for example. A test is performed in which the client PC 600 and the mobile phone 1 which is a test target device are linked, such as performing a music search by operating. Although not shown, the test result is stored in the database, and the expected value and the actual measurement value are automatically compared and determined. For example, images on both the mobile phone 1 side and the client PC 600 side that are evaluation target devices are determined. The determination result may be stored in a database, for example.

また本発明実施例装置は、図57(A)に示すように、1台の本発明装置と1台のロボット10を対応させて制御することも、図57(B)に示すように、1台の本発明装置で2台のロボット10、20を制御することも可能である。2台のロボット10の制御を予め作成した1本のシナリオで行えば、シナリオの維持管理の手間が軽減さ、また、制御に使用するコンピュータ8が1台で済むので、導入コストも低減できる。なお図示のように、ロボットは異なる機種でも、同一機種でも、いずれでもよい。   In addition, as shown in FIG. 57A, the embodiment apparatus of the present invention can control one apparatus of the present invention and one robot 10 in correspondence with each other, as shown in FIG. It is also possible to control the two robots 10 and 20 with one device of the present invention. If the control of the two robots 10 is performed with one scenario created in advance, the maintenance work of the scenario is reduced, and the introduction cost can be reduced because only one computer 8 is used for the control. As shown in the figure, the robot may be a different model or the same model.

図58に示すように、本発明では、携帯電話1等の検査対象機器又は検査対象装置に対して使用される組込みシステム向けの開発支援を行うCASEツール(例えばZIPC:商品名)で作成した状態が変化する事象に基づいて少なくとも擬似入力手段を協調動作させ、この協調動作に基づいて、検査対象である携帯電話1等に対する擬似入力の手順を作成する構成も可能である。   As shown in FIG. 58, in the present invention, a state created with a CASE tool (for example, ZIPC: product name) that supports development for an embedded system used for an inspection target device or inspection target device such as the mobile phone 1 A configuration is also possible in which at least the pseudo-input means is cooperatively operated based on an event that changes, and a pseudo-input procedure for the mobile phone 1 or the like to be inspected is created based on the cooperative operation.

以上説明してきた実施例は、期待値画像と実行画像が一致するかどうか等についてのものであったが、本実施例は、期待値画像と実行画像が一致していないこと、換言すれば表出しては困る、あるいは表出することが有り得ない画像を、期待値画像との比較の上で検出しようとするものであり、例えばソフトウェアのバグによる画像、車両運転時のギヤチェンジ等によるメカニカルな動作に起因するノイズによってカーナビ機器の画面に生じるノイズ画像等々の誤表示を、期待値画像と比較して検出するという、先の実施例1〜9とは逆のアプローチによる機器、装置の機能チェック装置の実施例である。基本的な構成や、使用するソフトウェアについては先の実施例のものとほぼ同様であるので、説明を省略し、短時間の誤表示検出のロジックについて説明する。   The embodiment described above is about whether or not the expected value image and the execution image match. However, this embodiment does not match the expected value image and the execution image. It is intended to detect images that are difficult to display or cannot be displayed by comparing them with expected value images. For example, images due to software bugs, mechanical changes due to gear changes during vehicle operation, etc. Checking the functions of devices and apparatuses by an approach opposite to the previous embodiments 1 to 9, in which erroneous display such as a noise image generated on the screen of the car navigation device due to noise caused by the operation is detected in comparison with the expected value image. It is the Example of an apparatus. Since the basic configuration and software to be used are almost the same as those of the previous embodiment, a description thereof will be omitted, and a short-time erroneous display detection logic will be described.

本実施例では、短時間の誤表示検出については、静止画リアルタイム判定を行う。その処理、ロジックについて説明する。ただし、上述してきた静止画判定機能では上述の短時間の誤表示検出に対応できない可能性がある。すなわち、短い時間で遷移していく画面表示の変化を捉えることが無理な場合がある。このような短時間遷移画面が生じる状況を捉えるためには、静止画判定の実行間隔を短くすれば可能であるが、静止画判定処理が、画像を1枚撮影する度に撮影画像をファイル保存し、かつ本発明実施例装置の試験結果を記録するデータベースに登録するという処理を行うため、一度の静止画撮影に掛かる時間が最短でも600ミリ秒程度掛かる。このため、200ミリ秒程度しか表示されないような短時間の誤表示画面を確実に撮影し、判定することは上述してきたような実施例の処理では不可能である。   In this embodiment, still image real-time determination is performed for short-time erroneous display detection. The process and logic will be described. However, the above-described still image determination function may not be able to handle the above-described short-time erroneous display detection. In other words, it may be impossible to capture changes in the screen display that transition in a short time. In order to capture the situation where such a short-time transition screen occurs, it is possible to shorten the execution interval of still image determination. However, each time a still image determination process takes one image, the captured image is saved as a file. In addition, since the process of registering in the database for recording the test results of the apparatus according to the embodiment of the present invention is performed, it takes about 600 milliseconds at the minimum to shoot one still image. For this reason, it is impossible to reliably shoot and determine a short-time erroneous display screen that is displayed only for about 200 milliseconds by the processing of the above-described embodiment.

そこで本実施例では、この問題を解決するために、静止画リアルタイム判定の機能を用いる。この処理の概要としては、期待値画像3枚を用いた静止画判定を行い、一定時間、静止画を連続で撮り続けて、画像取得毎に静止画を取得し、2枚の期待値との比較判定処理を行い、判定結果を得る。   Therefore, in this embodiment, in order to solve this problem, a still image real-time determination function is used. As an outline of this processing, still image determination using three expected value images is performed, and still images are continuously taken for a certain period of time, and a still image is acquired every time an image is acquired. A comparison determination process is performed to obtain a determination result.

処理の詳細としては、
(1)遷移前(A)、遷移中(B)、遷移後(C)の画像3枚を期待値群として設定する(図59参照)。
(2)画像は静止画の連続取得とし、取得時に即座に判定を行う。
(3)処理の高速化のために、取得画像の逐次ファイル保存を行わずに、オンメモリにて画像データを扱う。
(4)処理の流れは以下の通りである。
期待値A、B、Cを取得画像と比較するが、取得画像と比較する期待値は画面遷移の時系列に従って行う。つまり、画面遷移の順番は、A→B→Cとなる前提で、以下に説明するフローでの判断を行う。
As processing details,
(1) Three images before transition (A), during transition (B), and after transition (C) are set as an expected value group (see FIG. 59).
(2) Images are continuously acquired as still images, and determination is made immediately upon acquisition.
(3) In order to speed up the processing, the image data is handled on-memory without sequentially storing the acquired images in a file.
(4) The flow of processing is as follows.
The expected values A, B, and C are compared with the acquired image, and the expected value compared with the acquired image is performed according to the time series of screen transitions. That is, the order of screen transition is determined based on the premise that A → B → C, and the flow described below is performed.

すなわち、
(1)判定開始後、
(2)取得画像が期待値Aと同じか否か判定し、
(3)期待値Aの画像を得た場合、次以降は期待値Aもしくは期待値Bかを判定し、
(4)期待値Bの画像を得た場合、次以降は期待値Bもしくは期待値Cか判定し、
(5)期待値Cの画像を得た場合、期待値Cがどれくらい連続したかを判定し、その後、
(6)判定を終了する。
That is,
(1) After the start of determination,
(2) Determine whether the acquired image is the same as the expected value A,
(3) When the image of the expected value A is obtained, it is determined whether it is the expected value A or the expected value B from the next time on,
(4) When an image of the expected value B is obtained, it is determined whether it is the expected value B or the expected value C after the next
(5) When an image of the expected value C is obtained, determine how long the expected value C is continuous, and then
(6) End the determination.

上記処理フローに沿うと、取得画像と比較する期待値は、各段階において最小で1枚、最大2枚となる。仮に期待値画像が3枚を超える場合であっても、1枚の取得画像と比較する期待値は「現在の画像」と「その次に遷移する画像」となり、常にその2枚で良いこととなる。   According to the above processing flow, the expected value to be compared with the acquired image is a minimum of 1 and a maximum of 2 at each stage. Even if the expected value image exceeds three images, the expected value to be compared with one acquired image is “current image” and “next transition image”, and the two images are always sufficient. Become.

そして、各段階で取得画像(例えば図60参照)の内容が、期待値2枚のいずれでも無いという判定結果が発生した場合、何コマ分続いたかを計測する。この計測値が、判定の閾値として設定したコマ数に達したならば、判定結果をNGとする。これは正常表示でない(誤表示)と推測される画像のコマ数が、どれくらい連続して表示されたかに着目する判定となる。正常な画面遷移の場合、表示を期待値A→期待値Bと書き換える経過において、明らかな誤表示と人間が認識するには相応のコマ数(表示時間)が必要になる。逆に表示時間が極端に短い場合は許容範囲内とする考え方に基づく判定となる。   Then, if a determination result that the content of the acquired image (see, for example, FIG. 60) is not one of the two expected values occurs at each stage, the number of frames that have continued is measured. If this measured value reaches the number of frames set as the determination threshold, the determination result is NG. This is a determination that pays attention to how long the number of frames of an image presumed to be not normal display (erroneous display) is displayed. In the case of normal screen transition, in the process of rewriting the display from the expected value A to the expected value B, an appropriate erroneous display and a corresponding number of frames (display time) are required for human recognition. On the contrary, when the display time is extremely short, the determination is based on the concept of being within the allowable range.

次に判定処理の終了条件は、期待値Cが表示されている回数(継続回数)を設定し、期待値Cを得る前にNG条件に達していないこと、さらに継続回数に達した状態で判定OKとし、判定処理を終了する。また、処理の永久ループを防ぐために、タイムアウトを別途設け、タイムアウトに達した場合は判定NGとみなす。   Next, as the end condition of the determination process, the number of times that the expected value C is displayed (the number of times of continuation) is set. OK and the determination process ends. Further, in order to prevent a permanent loop of processing, a timeout is separately provided, and when the timeout is reached, it is regarded as a determination NG.

以下に判定フローの一例を示す。なおA、B、Cはそれぞれ上述の期待値である。
判定開始→A→A→A+B?→A+B?→A+B?→B→B→B→B+C?→B+C?→C→C→C→C→判定終了
ここで、上記フローにおいて、A+B?、B+C?は3枚の期待値のいずれにも合致しないNG画像(例えば図60に示したような画像等)を表す。この場合、闇値が3に設定されていた場合は判定NGを確定する。ここで闇値が4に設定されていた場合は判定を保留して処理を続行する。かつ、期待値Cの継続回数が4に設定されていた場合に判定終了とし、判定結果をOKとする。
An example of the determination flow is shown below. A, B, and C are the above expected values.
Judgment start → A → A → A + B? → A + B? → A + B? → B → B → B → B + C? → B + C? → C → C → C → C → End of determination Here, in the above flow, A + B? , B + C? Represents an NG image (for example, an image as shown in FIG. 60) that does not match any of the three expected values. In this case, if the darkness value is set to 3, the determination NG is confirmed. Here, if the darkness value is set to 4, the determination is suspended and the process is continued. If the number of continuations of the expected value C is set to 4, the determination is terminated, and the determination result is OK.

上述のような処理で得たデータの保存について説明する。
先に説明した実施例では、取得画像は逐一結果データベースに保存する仕組みとしていたが、本実施例の判定処理においては、より高速な画像取得動作を必要とするため、取得画像をデータベースに保存せず、一連の処理が終わった後にコンピュータ内の指定のフォルダにファイルとして保存する。その代わり、取得画像を保存したフォルダのパス、および判定処理結果(OK/NG)のみをデータベースに保存する。これにより、データベースに保存するのに掛かる時間を大幅に軽減できる。
The storage of data obtained by the above processing will be described.
In the embodiment described above, the acquired image is stored in the result database one by one. However, in the determination process of the present embodiment, a faster image acquisition operation is required, so the acquired image is stored in the database. Instead, after a series of processing is completed, it is saved as a file in a specified folder in the computer. Instead, only the path of the folder storing the acquired image and the determination processing result (OK / NG) are stored in the database. This can greatly reduce the time taken to save in the database.

なお、画像の取り込みには、RGB入力のフレームグラバーを使用することが好ましい。これにより、
(1)毎秒最大30フレームの取込による、取りこぼしの低減、
(2)カメラ取込ならではの歪み補正、位置補正を省くことによる処理速度向上、
の点で高速動作が見込めるためである。
Note that an RGB input frame grabber is preferably used for capturing an image. This
(1) Reduction of missing data by capturing up to 30 frames per second,
(2) Distortion correction unique to camera capture, improved processing speed by omitting position correction,
This is because high-speed operation can be expected.

またなお、NG画像と判定、認識した後、処理動作を続行するか否かは使用者が設定できるようにしておくことが好ましいが、自動的に停止する、あるいは強制的に処理を最後まで続行する等々種々適当な処理の形態を採用すればよい。また、画像をNGと判定するかどうかの基準については、検査機器対象によっても種々基準が考えられるので、これも最適なものを検討、採用すればよく、説明し、図示した例には限定されない。   In addition, it is preferable that the user can set whether or not to continue the processing operation after determining and recognizing the image as an NG image, but it is automatically stopped or the processing is forcibly continued to the end. Various appropriate processing modes may be employed. In addition, as for the criteria for determining whether an image is NG, various criteria can be considered depending on the inspection device target, so that an optimum one may be considered and adopted, and is not limited to the example described and illustrated. .

次に、期待値画像2枚を用いた静止画判定を行う実施例に付いて説明する。本実施例では、一定時間静止画を連続で撮り続けて、画像取得のタイミング毎に静止画を取得し、2枚の期待値との比較判定の処理を行い、判定結果を得る。   Next, an embodiment for performing still image determination using two expected value images will be described. In this embodiment, a still image is continuously taken for a certain period of time, a still image is acquired at every image acquisition timing, a comparison determination process with two expected values is performed, and a determination result is obtained.

処理の詳細としては、
(1)遷移前(A)、遷移後(B)の画像2枚を期待値として設定する(例えば図59と同様の画像A、Bを設定したとする)。
(2)画像は静止画の連続取得とし、取得時に即座に判定を行う。
(3)画像A、Bを取得画像と比較し、2枚のいずれでも無い判定結果が何フレーム続いたかでNG判定する。
(4)処理の流れは以下の通りである。
すなわち、誤表示の時間がどれくらい続いているかに着目する。
例えば画像の遷移が、
A→A→A+B?→A+B?→A+B?→B→B→B→B
であった場合(A+B?は期待値のいずれにも合致しない画像を表す点は先の実施例と同じである。)、判定処理の終了条件は、画像Bが表示されている回報(継続的数)を設定し、その回数に達した状態で画像の取得及び判定処理を終了する。永久ループを防ぐために、さらにタイムアウトを設けても良いと思われる。
As processing details,
(1) Two images before transition (A) and after transition (B) are set as expected values (for example, images A and B similar to those in FIG. 59 are set).
(2) Images are continuously acquired as still images, and determination is made immediately upon acquisition.
(3) The images A and B are compared with the acquired images, and an NG determination is made based on how many frames the determination result that is neither of the two images continues.
(4) The flow of processing is as follows.
That is, pay attention to how long the misdisplay time lasts.
For example, image transition
A → A → A + B? → A + B? → A + B? → B → B → B → B
(A + B? Is the same as in the previous embodiment in that it represents an image that does not match any of the expected values.) The end condition of the determination process is the circular (continuous) where image B is displayed. The image acquisition and determination process is terminated in a state where the number has been reached. In order to prevent an endless loop, it seems that an additional timeout may be provided.

上述のような処理で得たデータの保存について説明する。
先の実施例と同様に、高速な画像取得動作を必要とするため、取得画像をデータベースに保存せず、一連の処理が終わった後にコンピュータ内の指定のフオルダに実測値ファイルを保存し、データベースに保存するのに掛かる時間を無くす。
The storage of data obtained by the above processing will be described.
As in the previous embodiment, since a high-speed image acquisition operation is required, the acquired image is not stored in the database, and the measured value file is stored in a designated folder in the computer after the series of processing is completed. Eliminates the time it takes to save

上述のような処理のためのシナリオの記述について説明する。まず、画像取得/判定動作の呼び出しは例えばこの種の処理に用いられるPIC/STILLコマンド等を使用せずに、すなわち基本コマンドで実行するのではなく、専用のプラグインコマンドを新規に追加することで対処することもできる。すなわち、プラグインコマンド経由で擬似画面に処理要求を通知する方式とすることもできる。また、判定結果も処理要求同様プラグインコマンドを使用することができる。その場合、プラグインコマンドの戻り値で判定結果を取得し、その結果をデータベースに書き込むことで合否判定の結果を残すようにすることもできる。また、実測値画像を保存したフオルダのパスも処理結果同様プラグインコマンドで取得し、内容をデータベースに記録するようにすることが可能である。   A description of a scenario for the above processing will be described. First, invoking the image acquisition / determination operation, for example, without using a PIC / STILL command used for this type of processing, that is, not executing with a basic command, but adding a new dedicated plug-in command Can also be dealt with. In other words, a method of notifying a processing request to the pseudo screen via a plug-in command can be used. In addition, the plug-in command can be used for the determination result as well as the processing request. In that case, it is also possible to obtain the result of the pass / fail judgment by obtaining the judgment result from the return value of the plug-in command and writing the result in the database. Further, the path of the folder in which the actually measured value image is stored can be acquired by the plug-in command as well as the processing result, and the contents can be recorded in the database.

最後に判定結果の参照について説明する。上述のように、基本コマンドあるいはプラグインコマンドで得た、保存したフオルダのパス情報を結果画面の変数ビューアで参照し、そこからエクスプローラ等を起動し、実測画像の経過を参照すればよい。   Finally, reference to the determination result will be described. As described above, the saved folder path information obtained by the basic command or the plug-in command is referred to by the variable viewer on the result screen, and an explorer or the like is started from there to refer to the progress of the actually measured image.

なお、画像の取り込みには、RGB入力のフレームグラバーを使用することが好ましいこと等は先の実施例と同様であるので説明を省略する。   Note that it is preferable to use an RGB input frame grabber for capturing images, and the description is omitted because it is the same as in the previous embodiment.

本発明は、以上説明してきたようなものであるが、外部からの物品接触による入力は、例えばボタンの押下、つまみの回転、タッチパネルへの接触・描画入力、音声入力、カメラ等からの画像信号入力を含む外部入力、また、コネクタからの有線信号入力、電波、赤外線による無線入力に対応して内部状態が変化し、内部状況の変化に伴い、画像、音声を含む外部出力を送出する出力手段を備えた機器を検査対象とすることができる。   Although the present invention has been described above, input from an external contact with an article is, for example, pressing a button, rotating a knob, touch / drawing input to a touch panel, voice input, an image signal from a camera, etc. Output means for sending external output including image and sound in response to external input including input, internal signal changes corresponding to wired signal input from connector, radio input by radio wave and infrared, and changes in internal status It is possible to make a device provided with

また、適宜の自由度(例えば、3軸、6軸)を有するロボットを用いて複数のボタンを順次または同時に押下するようにすることができる。特に多軸のロボットを使用した場合には、立体的に配置されたボタン、つまみを的確に操作することができる。   Further, a plurality of buttons can be sequentially or simultaneously pressed using a robot having an appropriate degree of freedom (for example, 3 axes, 6 axes). Particularly when a multi-axis robot is used, buttons and knobs arranged in a three-dimensional manner can be accurately operated.

さらに、擬似入力手段としては、検査対象機器が、つまみの回転、タッチパネルへの接触・描画入力、音声入力、カメラ等からの画像信号入力を含む外部入力、また、コネクタからの有線信号入力、電波、赤外線による無線入力前記外部入力である場合には、これらに対応する出力をなすことが簡単にできるようになる。   In addition, as a pseudo input means, the inspection target device is a knob rotation, touch / drawing input to the touch panel, audio input, external input including image signal input from a camera, etc., wired signal input from a connector, radio wave In the case of the wireless input by infrared rays, the external input can easily make an output corresponding to these.

そして、検査対象機器が携帯電話やカーナビの場合の試験には、外部に接続されたプログマブル電源、電波発生器、シグナルジェネレータ、測定器などの機器やこれらのコントロールソフトと接続した環境でテストをする場合があるが、本発明では、外部機器制御の機能として、シナリオの中にこれら外部機器への制御用命令文を記述することにより、それぞれの機器の制御を行う外部制御モジュールソフトと交信を行い、連携した試験を行える。この場合、外部制御モジュールは、接続機器ごとに用意し、本システムときめられたプロトコルにより、通信を行って外部制御モジュールより外部機器を制御し、または値を得て本発明のシステムに渡すこととなる。   For testing when the device to be inspected is a mobile phone or car navigation system, test in an environment connected to externally connected devices such as programmable power supplies, radio wave generators, signal generators, measuring instruments, and their control software. However, in the present invention, as a function of external device control, by describing control statements to these external devices in a scenario, communication with external control module software that controls each device is performed. , You can perform linked tests. In this case, an external control module is prepared for each connected device, and the external device is controlled by the external control module through communication according to the protocol specified in the system, or a value is obtained and passed to the system of the present invention. It becomes.

本発明では、携帯電話やPHS、PDA、ゲーム機、ノートブック型のパーソナルコンピュータ、カーナビゲーション装置、パネルディスプレイ装置等において適用できる。   The present invention can be applied to a mobile phone, PHS, PDA, game machine, notebook personal computer, car navigation device, panel display device, and the like.

本発明に係る機器、装置の機能チェック装置の一実施例を概念的に示す斜視図The perspective view which shows notionally one Example of the function check apparatus of the apparatus which concerns on this invention, and an apparatus 検査対象機器を携帯電話とした場合に使用するアダプタユニットとレリーズに代わるプランジャーを多数備えたプランジャーユニットを示す斜視図The perspective view which shows the plunger unit provided with many adapter units and plungers used instead of a release when an inspection object apparatus is a mobile phone. 携帯電話を保持するためのアダプタユニットの変形例を概念的に示す斜視図The perspective view which shows notionally the modification of the adapter unit for hold | maintaining a mobile telephone 携帯電話を保持するためのアダプタユニットの変形例を概念的に示す斜視図The perspective view which shows notionally the modification of the adapter unit for hold | maintaining a mobile telephone カメラ等を装備するためのベースユニットの側面図Side view of base unit for mounting camera etc. レリーズの構造を示す側面図Side view showing the structure of the release モニタにメイン画面として表示させる画面の内容を示す図Diagram showing the contents of the screen displayed as the main screen on the monitor メイン画面上でのキーボタンの範囲指定を示す図Figure showing key button range specification on the main screen 携帯電話情報設定画面を示す図Figure showing the mobile phone information setting screen ボタン情報設定画面を示す図Figure showing the button information setting screen ボタン情報一覧画面を示す図Figure showing the button information list screen キーボタンの情報設定でのレリーズの番号入力例を示す図The figure which shows the example of the release number input in the information setting of the key button リセットボタンの設定画面を示す図Figure showing the reset button setting screen 機種ファイルの編集画面の図Figure of model file editing screen モニタに表示させるLCDパネル画面の調整画面を示す図The figure which shows the adjustment screen of the LCD panel screen which is displayed on the monitor 補正後画像の確認画面を示す図Figure showing the screen for checking the corrected image キャリブレーションシートを示す図Diagram showing calibration sheet 歪み具合取得ウィザード画面の図Figure of distortion acquisition wizard screen シナリオ作成編集画面を示す図Figure showing the scenario creation edit screen シナリオを複数呼び出した例を示す図Diagram showing an example of calling multiple scenarios 期待値設定タブの内容を示す図Figure showing the contents of the expected value setting tab ボタン対応表を示す図Figure showing button correspondence table 実行画面を示す図Figure showing the execution screen エラーレポートを示す図Figure showing an error report 本発明に係る携帯電話の検査装置の一実施例の画像判定処理動作を示すフローチャート6 is a flowchart showing an image determination processing operation of an embodiment of the mobile phone inspection device according to the present invention. 同音声判定処理動作を示すフローチャートFlow chart showing the voice determination processing operation 同静止画像判定処理動作中の閾値決定処理を示す図The figure which shows the threshold value determination process during the still image determination processing operation 同静止画像判定処理動作中の明るさ補正処理を示す図The figure which shows the brightness correction processing during the still image determination processing operation 同静止画像判定処理動作の一例を示す図The figure which shows an example of the same image determination processing operation 同静止画像判定処理動作中の領域特定処理を示す図The figure which shows the area | region identification process in the still image determination process operation 同静止画像判定処理動作を示すフローチャートFlowchart showing the still image determination processing operation 同動画像判定処理動作を示すフローチャートFlow chart showing the same moving image determination processing operation 同動画像判定処理動作の一例を示す図The figure which shows an example of the moving image determination processing operation 同動画像判定処理動作の一例を示す図The figure which shows an example of the moving image determination processing operation 同動画像判定処理動作の一例を示す図The figure which shows an example of the moving image determination processing operation 同動画像判定処理動作の一例を示す図The figure which shows an example of the moving image determination processing operation 同動画像判定処理動作の一例を示す図The figure which shows an example of the moving image determination processing operation 同DTM音判定処理動作を示すフローチャートFlowchart showing the DTM sound determination processing operation 同BT/RBT音判定処理動作を示すフローチャートFlowchart showing the same BT / RBT sound determination processing operation 同メロディ判定処理動作を示すフローチャートFlow chart showing the melody determination processing operation DTMF番号に対応する周波数情報を示す図The figure which shows the frequency information corresponding to a DTMF number PDAに対する自動テストに用いるロボットと、そのロボットの動作を示す図示す図The figure which shows the robot used for the automatic test with respect to PDA, and the operation | movement of the robot 同テストの流れを示す図Diagram showing the flow of the test 同テスト結果の判定を示す図The figure which shows the judgment of the same test result 評価対象機器をカーナビ、カーオーディオとした例を示す図The figure which shows the example which made the evaluation object equipment car navigation and car audio 車関連の検査として電源の制御例を示す図The figure which shows the control example of the power source as inspection related to the car 同CANシミュレータとの連携例を示す図Diagram showing an example of cooperation with the CAN simulator 話し言葉の判定に用いた例を示す図Figure showing an example used to determine spoken language タッチパネル等がRGB入力で出力する画像データを扱う例を示す図The figure which shows the example which handles the image data which a touch panel etc. output by RGB input プログラマブル表示器との連携例を示す図Diagram showing an example of cooperation with a programmable display OCRにより文字認識を行い、検出した文字の座標位置にロボットのアームやプランジャーを誘導する例を示す図The figure which shows the example which performs character recognition by OCR and guides the arm and plunger of the robot to the coordinate position of the detected character 赤外線リモコン操作を行えるデジタル家電機器を対象とした例を示す図The figure which shows the example for the digital household appliances which can perform infrared remote control operation 図52の例の変形例を示す図The figure which shows the modification of the example of FIG. 操作内容がそのままテストシナリオになる機能を有する赤外線リモコンの例を示す図The figure which shows the example of the infrared remote control which has the function where the operation contents become the test scenario as it is Windows(登録商標)アプリケーションの自動評価に使用する例を示す図The figure which shows the example which is used for automatic evaluation of Windows (registered trademark) application Windows(登録商標)アプリケーションの連携試験の流れを示す図The figure which shows the flow of cooperation test of Windows (registered trademark) application 1台の本発明装置で2台のロボットを制御する例を示す図The figure which shows the example which controls two robots with one device of the present invention 組込みシステム向けの開発支援を行うCASEツールとの連携例を示す図Diagram showing an example of cooperation with the CASE tool that provides development support for embedded systems 実施例10で使用した遷移前(A)、遷移中(B)、遷移後(C)の画像を示す図The figure which shows the image of before transition (A), in transition (B), and after transition (C) used in Example 10 実施例10でNG画像と判定される画像の例を示す図The figure which shows the example of the image determined to be a NG image in Example 10.

符号の説明Explanation of symbols

1 評価対象機(携帯電話、PDA等)
2 アダプタユニット
3 LCDパネル
3a LCDパネルの画像
4 カメラ
5 操作ボタン(キーボタン)
6 レリーズ
7 プランジャーユニット
8 コンピュータ
8a キーボード
8b マウス
9 モニタ
10 ロボット
11 表示部
12 操作部
プランジャーユニット20
21 アダプタユニットのベース板
22 傾斜板
23 レリーズガイドパネル
24 側板
25 孔
26 スピーカ
30 ベースユニット
31 ベースユニットのベース板
32 マイク
33 タワー部
35 マイク
40 キャリブレーションシート
50 シナリオリストボックス
51 コマンド設定タブ
52 情報設定部
53 期待値画像表示スペース
61 レリーズのチューブ
62 ピン
63 金属管部
64 ネジヤマ
65 ロックネジ
66 調節ネジ
80 シナリオリストボックス
81 実行時指定部
82 実行状況表示部
83 シナリオ一覧リストボックス
84 カレントシナリオボックス
85 期待値画像表示部
86 実行LCD画像表示部
101 支持部材
101a ガイド支持部材
101b 親スライダ
101c 子スライダ
101d 保持用支持部材
102 携帯電話の蓋部
103 弾性部材
200 6軸ロボット
202 ダイヤル
204 アダプタ
206 CDチェンジャー
208 CD
210 カーナビ
212 DVD
300 CANシミュレータ
302 マイク
400 デジタル家電機器
401 コントローラ
402 赤外線発信器
500 赤外線リモコン
501 ボタン
600 パソコン
601 キーボード
1 Evaluation machines (cell phones, PDAs, etc.)
2 Adapter unit 3 LCD panel 3a LCD panel image 4 Camera 5 Operation buttons (key buttons)
6 Release 7 Plunger Unit 8 Computer 8a Keyboard 8b Mouse 9 Monitor 10 Robot 11 Display Unit 12 Operation Unit Plunger Unit 20
21 Adapter unit base plate 22 Inclined plate 23 Release guide panel 24 Side plate 25 Hole 26 Speaker 30 Base unit 31 Base unit base plate 32 Microphone 33 Tower 35 Microphone 40 Calibration sheet 50 Scenario list box 51 Command setting tab 52 Information setting Part 53 Expected value image display space 61 Release tube 62 Pin 63 Metal pipe part 64 Screw thread 65 Lock screw 66 Adjustment screw 80 Scenario list box 81 Execution designation part 82 Execution status display part 83 Scenario list list box 84 Current scenario box 85 Expected value Image display unit 86 Execution LCD image display unit 101 Support member 101a Guide support member 101b Parent slider 101c Child slider 101d Support member 102 for holding Mobile phone lid 10 Elastic member 200 six-axis robot 202 dials 204 adapter 206 CD changer 208 CD
210 Car navigation system 212 DVD
300 CAN simulator 302 Microphone 400 Digital home appliance 401 Controller 402 Infrared transmitter 500 Infrared remote controller 501 Button 600 PC 601 Keyboard

Claims (13)

外部からの入力に対応して外部に対して表出させる形態や動作が変化する出力手段を備えた一以上の検査対象機器又は検査対象装置をチェックするための機器、装置の機能チェック装置であり、
前記検査対象機器又は検査対象装置の前記外部表出形態、動作状態を擬似的又は実際的に発生させて前記検査対象機器又は検査対象装置の機能をチェックするための機器、装置の機能チェック装置において、
前記外部からの入力に対応する擬似入力を前記検査対象機器又は検査対象装置に対して印加する擬似入力手段、
該擬似入力手段による入力に応じて前記検査対象機器又は検査対象装置の前記出力手段が生じさせる前記チェック対象となる出力を検出するチェック対象出力検出手段、
前記擬似入力手段による入力手順を指定可能な擬似入力手順設定手段、及び
前記擬似入力手順設定手段で指定した手順に応じて入力される擬似入力による前記チェック対象出力検出手段の動作又は出力と、前記擬似入力に対応する実際の入力による前記検査対象機器又は検査対象装置の前記外部表出形態、動作状態の予想される期待値との整合性を確認する確認手段、
とを備えることを特徴とする機器、装置の機能チェック装置。
It is a function check device for an apparatus or device for checking one or more inspection target devices or inspection target devices having an output means that changes the form or operation to be exposed to the outside in response to an external input. ,
In the device for checking the function of the device to be inspected or the device to be inspected by generating the external display form and operation state of the device to be inspected or the device to be inspected in a pseudo or practical manner, the function check device of the device ,
A pseudo input means for applying a pseudo input corresponding to the input from the outside to the inspection target device or the inspection target device;
Check target output detection means for detecting the output to be checked generated by the output means of the inspection target device or the inspection target device in response to an input by the pseudo input means;
A pseudo input procedure setting unit capable of designating an input procedure by the pseudo input unit; and an operation or output of the check target output detection unit by a pseudo input inputted in accordance with a procedure designated by the pseudo input procedure setting unit; Confirmation means for confirming consistency with the expected expected value of the external state of the inspection target device or inspection target device by the actual input corresponding to the pseudo input, the operation state,
A device and device function check device.
請求項1の機器、装置の機能チェック装置において、
前記擬似入力手段を前記検査対象機器又は検査対象装置毎に配するとともに、前記確認手段を前記擬似入力手段が複数であっても共通化してなることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus of Claim 1,
An apparatus and a function check apparatus for an apparatus and apparatus, wherein the pseudo input unit is arranged for each inspection target device or inspection target device, and the confirmation unit is shared even if there are a plurality of pseudo input units.
請求項1または2の機器、装置の機能チェック装置において、
前記確認手段は、前記整合性の確認にファジー制御による判定を行う手段を備えることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus of Claim 1 or 2,
The function checking device for a device or apparatus, wherein the checking means includes means for performing a determination by fuzzy control for checking the consistency.
請求項1ないし3のいずれかの機器、装置の機能チェック装置において、
前記検査対象機器又は検査対象装置が有する表示手段に、前記擬似入力手順設定手段で指定した手順に応じて入力される擬似入力による前記チェック対象出力検出手段の動作又は出力を表示させ、
前記表示手段に表示された内容を認識し、ターゲットとする内容の位置に応じて前記擬似入力手段による擬似入力の前記検査対象機器又は検査対象装置への印加位置を可変させる認識手段を有することを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus in any one of Claim 1 thru | or 3,
Display the operation or output of the check target output detection means by the pseudo input input according to the procedure specified by the pseudo input procedure setting means on the display means of the inspection target device or the inspection target device,
Recognizing means for recognizing the content displayed on the display means, and changing a position of application of the pseudo input by the pseudo input means to the inspection target device or inspection target device according to the position of the target content. Device and function check device for equipment.
請求項1ないし4のいずれかの機器、装置の機能チェック装置において、
前記擬似入力手段が、或る擬似入力の一の手順の実行中に、予め指定した周期ごと又は予め指定した順序で前記実行中の手順と異なる手順を実行可能であることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claims 1 thru | or 4,
The pseudo-input means is capable of executing a procedure different from the procedure being executed in a predetermined cycle or in a pre-specified order during execution of one procedure of a certain pseudo-input, Device function check device.
請求項1ないし5のいずれかの機器、装置の機能チェック装置において、
前記擬似入力手段が、音声入力手段と、該音声入力手段から入力された音声の内容を自動判定する音声判定手段を有し、
該音声判定手段により前記外部からの入力事象に対応する擬似入力を前記検査対象機器又は検査対象装置に対して印加することを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claims 1 thru | or 5,
The pseudo input unit includes a voice input unit and a voice determination unit that automatically determines the content of the voice input from the voice input unit;
A function check apparatus for an apparatus or apparatus, wherein the voice determination means applies a pseudo input corresponding to the input event from the outside to the inspection target apparatus or the inspection target apparatus.
請求項1ないし5のいずれかの機器、装置の機能チェック装置において、
前記検査対象機器又は検査対象装置に対して使用される組込みシステム向けの開発支援を行うCASEツールで作成した状態が変化する事象に基づいて少なくとも前記擬似入力手段を協調動作させる手段と、
該少なくとも前記擬似入力手段による協調動作に基づいて、前記検査対象機器又は検査対象装置に対する前記擬似入力手段による入力手順を作成する手段を有する、
ことを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claims 1 thru | or 5,
Means for cooperating at least the pseudo input means based on an event that changes a state created by a CASE tool that supports development for an embedded system used for the inspection target device or inspection target apparatus;
Based on at least the cooperative operation by the pseudo input means, and having means for creating an input procedure by the pseudo input means for the inspection target device or inspection target device,
A function check device for equipment and devices.
請求項4ないし7のいずれかの機器、装置の機能チェック装置において、
前記検査対象機器又は検査対象装置が有する表示手段に表示された内容を撮像して画像を得る撮像手段と、
該撮像手段に対して前記検査対象機器又は検査対象装置を所定状態にかつ交換可能に搭載するための搭載手段を有する
ことを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus in any one of Claim 4 thru | or 7,
Imaging means for obtaining an image by imaging the content displayed on the display means included in the inspection target device or the inspection target device;
A function check device for an apparatus or device, comprising: mounting means for mounting the inspection target device or the inspection target device in a predetermined state and interchangeably on the imaging means.
請求項1ないし8のいずれかの機器、装置の機能チェック装置において、
前記検査対象機器又は検査対象装置が、音声入力手段、画像信号入力手段、有線信号入力手段、電波、赤外線を含む電磁波による無線入力手段のいずれかを備えるものであることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claims 1 thru | or 8,
The inspection object device or the inspection object device is provided with any of voice input means, image signal input means, wired signal input means, radio input means using electromagnetic waves including radio waves and infrared rays. Function check device.
請求項1ないし9のいずれかの機器、装置の機能チェック装置において、
前記アダプタに、集音マイク及び/又はスピーカを搭載してなることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claim 1 thru | or 9,
A function check device for equipment and devices, wherein the adapter is equipped with a sound collecting microphone and / or speaker.
請求項1ないし10のいずれかの機器、装置の機能チェック装置において、
前記アダプタが、搭載した前記検査対象機器又は検査対象装置の少なくとも被操作部位を覆うとともに、前記擬似入力手段による入力を許す穴又は開口を有することを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus and apparatus in any one of Claims 1 thru | or 10,
The function check device for an apparatus or device, wherein the adapter covers at least an operated part of the mounted inspection target device or inspection target device, and has a hole or an opening that allows input by the pseudo input means.
請求項7ないし11のいずれかの機器、装置の機能チェック装置において、前記撮像手段が、静止画及び/又は動画を得るためのものであることを特徴とする機器、装置の機能チェック装置。   12. A function check apparatus for a device or apparatus according to claim 7, wherein the imaging means is for obtaining a still image and / or a moving image. 請求項7ないし12のいずれかの機器、装置の機能チェック装置において、
前記搭載手段が、複数の移動可能なあるいは位置固定の支持部材で前記検査対象機器又は検査対象装置を保持するために、着脱可能な弾性部材備えることを特徴とする機器、装置の機能チェック装置。
In the function check apparatus of the apparatus in any one of Claims 7 thru | or 12,
An apparatus and a function check apparatus for an apparatus, characterized in that the mounting means includes a removable elastic member for holding the inspection object apparatus or the inspection object apparatus by a plurality of movable or fixed support members.
JP2008176355A 2008-04-30 2008-07-04 Function checking apparatus for equipment and device Pending JP2009290852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008176355A JP2009290852A (en) 2008-04-30 2008-07-04 Function checking apparatus for equipment and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008119338 2008-04-30
JP2008176355A JP2009290852A (en) 2008-04-30 2008-07-04 Function checking apparatus for equipment and device

Publications (1)

Publication Number Publication Date
JP2009290852A true JP2009290852A (en) 2009-12-10

Family

ID=41459529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008176355A Pending JP2009290852A (en) 2008-04-30 2008-07-04 Function checking apparatus for equipment and device

Country Status (1)

Country Link
JP (1) JP2009290852A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011188113A (en) * 2010-03-05 2011-09-22 S-Cubed Inc Mobile terminal verification system and control device
CN102291479A (en) * 2011-08-09 2011-12-21 青岛海信移动通信技术股份有限公司 Terminal function detection method and terminal
JP2012053873A (en) * 2010-08-31 2012-03-15 Veriserve Corp Design verification device, design verification method and design verification program
WO2012111387A1 (en) 2011-02-14 2012-08-23 株式会社 エヌ・ティ・ティ・ドコモ Test device
JP5204343B1 (en) * 2012-11-01 2013-06-05 NEUSOFT Japan株式会社 Test system and program
KR20130111699A (en) * 2012-04-02 2013-10-11 엘지전자 주식회사 Apparatus and method for analyzing an output of mobile terminal
JP2015505999A (en) * 2011-10-25 2015-02-26 エコエーティーエム,インク. Method and apparatus for recycling electronic devices
US20160134841A1 (en) * 2014-11-10 2016-05-12 David Christopher Round Verifying information on an electronic display with an incorporated monitoring device
JP2016534686A (en) * 2013-10-24 2016-11-04 テレプラン テクノロジー ベスローテン フェノーツハップTeleplan Technology B.V. Mobile phone testing method and testing apparatus
US20170168622A1 (en) * 2015-12-10 2017-06-15 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
JP2017130139A (en) * 2016-01-22 2017-07-27 東芝三菱電機産業システム株式会社 Interface test system
JP2017129957A (en) * 2016-01-19 2017-07-27 東芝三菱電機産業システム株式会社 Interface test device and interface test system
WO2018207481A1 (en) * 2017-05-09 2018-11-15 古野電気株式会社 Automated inspection device
JP2018180094A (en) * 2017-04-05 2018-11-15 東芝三菱電機産業システム株式会社 Hmi screen testing device
JP2019003265A (en) * 2017-06-12 2019-01-10 株式会社野村総合研究所 State determination device
EP3527335A1 (en) 2018-02-16 2019-08-21 Omron Corporation Conveyor tracking system and calibration method
JP2020146825A (en) * 2019-03-15 2020-09-17 日本電気株式会社 Control device, inspection system, control method, and program
JP2021002131A (en) * 2019-06-20 2021-01-07 モリカトロン株式会社 Output tone error detection support program, output tone error detection support method, and output tone error detection support device
US11010841B2 (en) 2008-10-02 2021-05-18 Ecoatm, Llc Kiosk for recycling electronic devices
US11080662B2 (en) 2008-10-02 2021-08-03 Ecoatm, Llc Secondary market and vending system for devices
US11080672B2 (en) 2014-12-12 2021-08-03 Ecoatm, Llc Systems and methods for recycling consumer electronic devices
US11107046B2 (en) 2008-10-02 2021-08-31 Ecoatm, Llc Secondary market and vending system for devices
US11126973B2 (en) 2014-10-02 2021-09-21 Ecoatm, Llc Wireless-enabled kiosk for recycling consumer devices
CN113808108A (en) * 2021-09-17 2021-12-17 太仓中科信息技术研究院 Visual inspection method and system for defects of printed film
US11232412B2 (en) 2014-10-03 2022-01-25 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
US11436570B2 (en) 2014-10-31 2022-09-06 Ecoatm, Llc Systems and methods for recycling consumer electronic devices
US11462868B2 (en) 2019-02-12 2022-10-04 Ecoatm, Llc Connector carrier for electronic device kiosk
US11482067B2 (en) 2019-02-12 2022-10-25 Ecoatm, Llc Kiosk for evaluating and purchasing used electronic devices
US11526932B2 (en) 2008-10-02 2022-12-13 Ecoatm, Llc Kiosks for evaluating and purchasing used electronic devices and related technology
US11790327B2 (en) 2014-10-02 2023-10-17 Ecoatm, Llc Application for device evaluation and other processes associated with device recycling
US11798250B2 (en) 2019-02-18 2023-10-24 Ecoatm, Llc Neural network based physical condition evaluation of electronic devices, and associated systems and methods
US11803954B2 (en) 2016-06-28 2023-10-31 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295387A (en) * 2003-03-26 2004-10-21 Sharp Corp Inspection device and inspection method
JP2005130435A (en) * 2003-10-24 2005-05-19 Renbao Computer Industry Co Ltd Apparatus and method for reading and inspecting data
WO2005071930A1 (en) * 2004-01-23 2005-08-04 Japan Novel Corporation Device inspection device, device inspection system using the same, and mobile telephone holding device
JP3714660B2 (en) * 2000-03-17 2005-11-09 日本ノーベル株式会社 Mobile phone inspection equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714660B2 (en) * 2000-03-17 2005-11-09 日本ノーベル株式会社 Mobile phone inspection equipment
JP2004295387A (en) * 2003-03-26 2004-10-21 Sharp Corp Inspection device and inspection method
JP2005130435A (en) * 2003-10-24 2005-05-19 Renbao Computer Industry Co Ltd Apparatus and method for reading and inspecting data
WO2005071930A1 (en) * 2004-01-23 2005-08-04 Japan Novel Corporation Device inspection device, device inspection system using the same, and mobile telephone holding device

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790328B2 (en) 2008-10-02 2023-10-17 Ecoatm, Llc Secondary market and vending system for devices
US11526932B2 (en) 2008-10-02 2022-12-13 Ecoatm, Llc Kiosks for evaluating and purchasing used electronic devices and related technology
US11010841B2 (en) 2008-10-02 2021-05-18 Ecoatm, Llc Kiosk for recycling electronic devices
US11907915B2 (en) 2008-10-02 2024-02-20 Ecoatm, Llc Secondary market and vending system for devices
US11080662B2 (en) 2008-10-02 2021-08-03 Ecoatm, Llc Secondary market and vending system for devices
US11935138B2 (en) 2008-10-02 2024-03-19 ecoATM, Inc. Kiosk for recycling electronic devices
US11107046B2 (en) 2008-10-02 2021-08-31 Ecoatm, Llc Secondary market and vending system for devices
JP2011188113A (en) * 2010-03-05 2011-09-22 S-Cubed Inc Mobile terminal verification system and control device
JP2012053873A (en) * 2010-08-31 2012-03-15 Veriserve Corp Design verification device, design verification method and design verification program
WO2012111387A1 (en) 2011-02-14 2012-08-23 株式会社 エヌ・ティ・ティ・ドコモ Test device
US9280451B2 (en) 2011-02-14 2016-03-08 Ntt Docomo, Inc. Testing device
CN103329108A (en) * 2011-02-14 2013-09-25 株式会社Ntt都科摩 Test device
CN102291479B (en) * 2011-08-09 2014-11-26 青岛海信移动通信技术股份有限公司 Terminal function detection method and terminal
CN102291479A (en) * 2011-08-09 2011-12-21 青岛海信移动通信技术股份有限公司 Terminal function detection method and terminal
JP2015505999A (en) * 2011-10-25 2015-02-26 エコエーティーエム,インク. Method and apparatus for recycling electronic devices
KR20130111699A (en) * 2012-04-02 2013-10-11 엘지전자 주식회사 Apparatus and method for analyzing an output of mobile terminal
KR101929778B1 (en) * 2012-04-02 2018-12-17 엘지전자 주식회사 Apparatus and method for analyzing an output of mobile terminal
JP5204343B1 (en) * 2012-11-01 2013-06-05 NEUSOFT Japan株式会社 Test system and program
JP2016534686A (en) * 2013-10-24 2016-11-04 テレプラン テクノロジー ベスローテン フェノーツハップTeleplan Technology B.V. Mobile phone testing method and testing apparatus
US11734654B2 (en) 2014-10-02 2023-08-22 Ecoatm, Llc Wireless-enabled kiosk for recycling consumer devices
US11790327B2 (en) 2014-10-02 2023-10-17 Ecoatm, Llc Application for device evaluation and other processes associated with device recycling
US11126973B2 (en) 2014-10-02 2021-09-21 Ecoatm, Llc Wireless-enabled kiosk for recycling consumer devices
US11232412B2 (en) 2014-10-03 2022-01-25 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
US11436570B2 (en) 2014-10-31 2022-09-06 Ecoatm, Llc Systems and methods for recycling consumer electronic devices
US20160134841A1 (en) * 2014-11-10 2016-05-12 David Christopher Round Verifying information on an electronic display with an incorporated monitoring device
US11315093B2 (en) 2014-12-12 2022-04-26 Ecoatm, Llc Systems and methods for recycling consumer electronic devices
US11080672B2 (en) 2014-12-12 2021-08-03 Ecoatm, Llc Systems and methods for recycling consumer electronic devices
US10936097B2 (en) 2015-12-10 2021-03-02 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
US20170168622A1 (en) * 2015-12-10 2017-06-15 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
US11921964B2 (en) 2015-12-10 2024-03-05 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
US10019092B2 (en) * 2015-12-10 2018-07-10 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
US11573669B2 (en) 2015-12-10 2023-02-07 Future Dial, Inc. System and method for simulating human manual input for devices using capacitive touchscreens
JP2017129957A (en) * 2016-01-19 2017-07-27 東芝三菱電機産業システム株式会社 Interface test device and interface test system
JP2017130139A (en) * 2016-01-22 2017-07-27 東芝三菱電機産業システム株式会社 Interface test system
US11803954B2 (en) 2016-06-28 2023-10-31 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
JP2018180094A (en) * 2017-04-05 2018-11-15 東芝三菱電機産業システム株式会社 Hmi screen testing device
WO2018207481A1 (en) * 2017-05-09 2018-11-15 古野電気株式会社 Automated inspection device
JPWO2018207481A1 (en) * 2017-05-09 2020-03-12 古野電気株式会社 Automatic inspection device
JP2019003265A (en) * 2017-06-12 2019-01-10 株式会社野村総合研究所 State determination device
EP3527335A1 (en) 2018-02-16 2019-08-21 Omron Corporation Conveyor tracking system and calibration method
US11021333B2 (en) 2018-02-16 2021-06-01 Omron Corporation Conveyor tracking system and calibration method
US11482067B2 (en) 2019-02-12 2022-10-25 Ecoatm, Llc Kiosk for evaluating and purchasing used electronic devices
US11462868B2 (en) 2019-02-12 2022-10-04 Ecoatm, Llc Connector carrier for electronic device kiosk
US11843206B2 (en) 2019-02-12 2023-12-12 Ecoatm, Llc Connector carrier for electronic device kiosk
US11798250B2 (en) 2019-02-18 2023-10-24 Ecoatm, Llc Neural network based physical condition evaluation of electronic devices, and associated systems and methods
JP7283150B2 (en) 2019-03-15 2023-05-30 日本電気株式会社 Control device, inspection system, control method, program
JP2020146825A (en) * 2019-03-15 2020-09-17 日本電気株式会社 Control device, inspection system, control method, and program
JP2021002131A (en) * 2019-06-20 2021-01-07 モリカトロン株式会社 Output tone error detection support program, output tone error detection support method, and output tone error detection support device
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition
CN113808108A (en) * 2021-09-17 2021-12-17 太仓中科信息技术研究院 Visual inspection method and system for defects of printed film

Similar Documents

Publication Publication Date Title
JP2009290852A (en) Function checking apparatus for equipment and device
JPWO2005071930A1 (en) Device inspection device, device inspection system using the same, and mobile phone holding device
US10144133B2 (en) Robotic device tester
US11724402B2 (en) Touch screen testing platform for engaging a dynamically positioned target feature
US8774793B2 (en) Systems and methods of providing intelligent handset testing
CN109476014B (en) Touch screen test platform for interfacing dynamically positioned target features
US20200065205A1 (en) Method, an all-in-one tester and computer program product
JP4489710B2 (en) Equipment inspection equipment
JP2011103609A (en) Apparatus for checking function of equipment and device
CN105847689B (en) A kind of focusing method, device and mobile terminal
US20230230337A1 (en) A Method for Testing an Embedded System of a Device, a Method for Identifying a State of the Device and a System for These Methods
JP2008005391A (en) Inspection apparatus for equipment system
CN111913868A (en) User interface test method, device, system and storage medium
JP2018101315A (en) Keying device control system, calibration method and program
JP2022131583A (en) Information processing device and program
TWM485470U (en) Circular forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121001