JP4441332B2 - 画面判定装置および画面判定方法 - Google Patents

画面判定装置および画面判定方法 Download PDF

Info

Publication number
JP4441332B2
JP4441332B2 JP2004163532A JP2004163532A JP4441332B2 JP 4441332 B2 JP4441332 B2 JP 4441332B2 JP 2004163532 A JP2004163532 A JP 2004163532A JP 2004163532 A JP2004163532 A JP 2004163532A JP 4441332 B2 JP4441332 B2 JP 4441332B2
Authority
JP
Japan
Prior art keywords
image
screen
data
expected
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004163532A
Other languages
English (en)
Other versions
JP2005346283A (ja
Inventor
昌志 大角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004163532A priority Critical patent/JP4441332B2/ja
Publication of JP2005346283A publication Critical patent/JP2005346283A/ja
Application granted granted Critical
Publication of JP4441332B2 publication Critical patent/JP4441332B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、グラフィックユーザインターフェイスを有する電子機器の操作試験に、好適に用いることができる画面判定装置および画面判定方法に関する。
グラフィックユーザインターフェイスを有する電子機器である携帯電話機には、多数の操作ボタンが設けられている。操作者は、目的に応じて適宜、操作ボタンを操作する。操作ボタンは、単に電話をかけるためのダイアリングに用いられるだけでなく、種々の設定のためにも用いられる。近年の携帯電話機は、多様かつ複雑な設定が可能となっている。
そのため、携帯電話機の製造者は、携帯電話機が、操作ボタンの操作によって、設計通りに動作するか否かを、出荷前に試験しておく必要がある。このような操作試験にあたっては、携帯電話機によって表示される画面と、予め設計された表示されるべき画面とが一致するか否かを判定する。
第1の従来の技術は、特許文献1に記載されている。この従来の技術では、操作試験にあたって、携帯電話機によって表示される画面と、予め設計された表示されるべき画面とが一致するか否かを、作業者が目視によって判定する。このような従来の技術では、目視による判定作業があるので、作業者の負担となるという問題がある。
第2の従来の技術は、前記第1の従来の技術と同様、特許文献1に記載されている。この従来の技術では、カメラによって撮像した携帯電話機のLCDパネルの画像と、予め作成された期待値画像とを、画像の自動認識ソフトウェアなどを用いて、比較判定する。前記LCDパネルの画像は撮像した画像であり、期待値画像は作成した画像であるので、前記LCDパネルの画像と期待値画像とでは、解像度および色合いが異なる、また、前記LCDパネルの画像は、期待値画像に対してゆがんでいる。したがって、この従来の技術では、本来、一致と判定すべきであるにもかかわらず、不一致と判定してしまうことが多く、前記一致するか否かを正確に判定することができないという問題がある。
第3の従来の技術は、第2の従来の技術に類似する。この従来の技術では、評価対象となるすべての期待する画像を、カメラによる撮像によって準備し、期待値画像に代えて、カメラによる撮像によって得られた画像を用いる。このような第3の従来の技術は、前記第1および第2の従来の技術の問題を解決することができるけれども、評価対象となるすべての期待する画像を、カメラによる撮像によって準備する必要があるので、手間がかかるという問題がある。
特開2001−268202号公報
本発明の目的は、判定結果が正確であり、かつ目視を必要とせず、手間を軽減することができる画面判定装置および画面判定方法を提供することである。
本発明は、基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データに基づいて、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成する画像部分データ生成手段と、
前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像を表す期待画像データを生成する期待画像データ生成手段と、
対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データと前記期待画像データとに基づいて、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定する判定手段とを含むことを特徴とする画面判定装置である。
また本発明は、前記判定手段は、対象画面撮像画像の全領域のうち、前記一致するか否かを判定すべき判定領域を特定して、その判定領域において、対象画面撮像画像と期待画像とが相互に一致するか否かを判定することを特徴とする。
また本発明は、前記基準機器および対象機器は、グラフィックユーザインターフェイスを有する携帯型の電子機器であることを特徴とする。
また本発明は、基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データに基づいて、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成し、
前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像を表す期待画像データを生成し、
対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データと前記期待画像データとに基づいて、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定することを特徴とする画面判定方法である。
また本発明は、前記画面判定方法をコンピュータに実行させるためのプログラムである。
本発明によれば、画像部分データ生成手段によって、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成する。期待画像データ生成手段によって、前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像データを生成する。そして判定手段によって、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定する。このように判定手段によって、前記一致するか否かが判定されるので、作業者の目視による判定作業が不要であり、作業者の負担を軽減することができる。
対象画面撮像画像は、対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データが表す画像である。また基準画面撮像画像は、基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データが表す画像であり、期待画像は、前記基準画面撮像画像から得られる画像である。換言すると、対象画面撮像画像および期待画像は、いずれも撮像によって得られる撮像データが表す画像である。それ故、対象画面撮像画像と期待画像とで、解像度および色合いを同じにすることができ、さらに撮像に伴う歪みも同じにすることができる。したがって対象画面撮像画像と期待画像とが相互に一致するか否かを、正確に判定することができる。
また画像部分は、基準画面撮像画像を分解することによって得られ、期待画像は、画像部分の表示位置に関する表示位置情報に基づいて、1または複数の画像部分を展開して作成される。換言すると、画像部分の組み合せおよび位置によって、所望の期待画像を作成することができる。それ故、複数の対象画面撮像画像に対応する複数の期待画像を作成するにあたっては、各期待画像に含まれるべき画像部分がすべて揃えばよく、複数の対象画面に対応する複数の基準画面をそれぞれ撮像する必要はない。したがって、基準画面の撮像にかかる手間を軽減することができる。
また本発明によれば、対象画面撮像画像の判定領域を特定して、この判定領域において、対象画面撮像画像と期待画像とが相互に一致するか否かを判定する。このように前記一致するか否かを判定すべき判定領域を特定するので、期待画像を構成する画像部分の数を必要最小限に抑えることができる。したがって期待画像の作成に要する処理量を低減することができる。
また本発明によれば、基準機器および対象機器は、グラフィックユーザインターフェイスを有する携帯型の電子機器である。携帯型の電子機器は、小形の表示部を有する。携帯型の電子機器は、表示部が小さいので、多くの内容を表示部に表示するために、操作者の操作にともなって、画面を切り替える必要がある。本発明は、このような携帯型の電子機器によって表示される画面が、設計通りに切り替わっているか否かの判定に好適に用いることができる。
また本発明によれば、まず、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成する。次に、前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像データを生成する。そして、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定する。
対象画面撮像画像は、対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データが表す画像である。また基準画面撮像画像は、基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データが表す画像であり、期待画像は、前記基準画面撮像画像から得られる画像である。換言すると、対象画面撮像画像および期待画像は、いずれも撮像によって得られる撮像データが表す画像である。それ故、対象画面撮像画像と期待画像とで、解像度および色合いを同じにすることができ、さらに撮像に伴う歪みも同じにすることができる。したがって対象画面撮像画像と期待画像とが相互に一致するか否かを、正確に判定することができる。
また画像部分は、基準画面撮像画像を分解することによって得られ、期待画像は、画像部分の表示位置に関する表示位置情報に基づいて、1または複数の画像部分を展開して作成される。換言すると、画像部分の組み合せおよび位置によって、所望の期待画像を作成することができる。それ故、複数の対象画面撮像画像に対応する複数の期待画像を作成するにあたっては、各期待画像に含まれるべき画像部分がすべて揃えばよく、複数の対象画面に対応する複数の基準画面をそれぞれ撮像する必要はない。したがって、基準画面の撮像にかかる手間を軽減することができる。
また本発明によれば、前述の画面判定方法を、プログラムとして提供することができる。
図1は、本発明の実施の一形態の画面判定装置1の構成を示すブロック図である。本実施の形態の画面判定装置1は、グラフィックユーザインターフェイスを有する携帯型の電子機器の操作試験に、好適に用いることができる。本実施の形態では、前記携帯型の電子機器として、携帯電話機を想定して説明する。本実施の形態において、グラフィックユーザインターフェイスとは、グラフィックスの画像部品を使って設計されたユーザーインターフェイスを意味する。
携帯電話機は、操作者によって操作される操作部と、画面を表示する表示部とを有する。携帯電話機は、操作者による操作部の操作によって、表示部に表示される画面が切り替わる。携帯電話機は、表示部が小さい。このような携帯電話機では、多くの項目を表示部に表示するために、操作者の操作によって、項目を移動させることができる。また携帯電話機では、操作者の操作によって、画面を切り替えることができる。
一例として述べると、複数の選択項目を含む選択メニューを示す画面が表示部に表示されているときに、操作者による操作部の操作によって、前記複数の選択項目のいずれか1つが選択されて決定されると、表示部の画面は、前記選択メニューを示す画面から、選択された選択項目に応じた画面に切り替わる。
本実施の形態の画面判定装置1は、このような携帯電話機によって表示される画面が、設計通りに切り替わっているか否かの判定に、好適に用いることができる。携帯電話機の操作試験では、試験されるべき対象機器となる携帯電話機の操作部に対して、所定の一連の操作を行ったときに、その携帯電話機の表示部に表示される画面が、設計時に予定されている画面と一致するか否かを判定する。そして、一致するとき、その携帯電話機は合格とし、一致しないとき、その携帯電話機は不合格とする。
図2は、自動検証システム101のブロック図である。携帯電話機の操作試験には、自動検証システム101が用いられる。自動検証システム101は、撮像装置102、操作装置103およびコンピュータ104を含む。
撮像装置102は、カメラを有し、携帯電話機の表示部に表示される画面をカメラによって撮像して、撮像データを生成する。操作装置103は、携帯電話機の操作部を操作する。コンピュータ104は、撮像装置102と操作装置103とを、関連して動作するように制御するとともに、撮像装置102による撮像データに基づいて、携帯電話機の合格/不合格を判定して、判定結果を出力する。
図3は、製品開発の初期段階における画面設計書情報2を示す図である。図4は、製品開発の評価段階における画面設計書情報3を示す図である。製品開発の設計段階では、開発者によって、画面設計書が作成される。このときに、開発者によって、画像部品が定義される。画像部品は、携帯電話機の表示部に表示される画面の少なくとも一部を構成する。この画像部品は、ピクトとも呼ばれる。
製品開発の初期段階では、画像部品のデザインなどがまだ決定されていない。このような段階では、画像部品の具体的な形状は「未定」としている。あるいは、このような段階では、過去の製品から流用した画像部品の形状を、仮形状として使用している。
製品開発の初期段階における画面設計書情報2は、図3に示すように、画像部品の名称である画像名に関する画像名情報6と、画像部品の仮形状に関する仮形状情報7と、画像部品の表示位置に関する表示位置情報8とを含む。画像名情報6、仮形状情報7および表示位置情報8は、相互に関連付けられている。前記表示位置情報8は、画像部品の左上の点の座標を示す左上座標情報8aと、画像部品の右下の点の座標を示す右下座標情報8bとを含む。
本実施の形態において、上下および左右は、操作者が携帯電話機の表示部を目視しながらその携帯電話機の操作部を操作する使用状態において、操作者から見た上下および左右を意味する。また本実施の形態では、携帯電話機における表示部の表示面は矩形であり、この表示面内で座標(x,y)が定義されている。原点(0,0)は、表示部の表示面の最も左寄りかつ最も上寄りの点であり、x軸は原点を通り左右方向に延び、y軸は原点を通り上下方向に延びる。
製品開発が進み、試験用の実機を使用した評価段階では、すべての画像部品のデザインが決定され、画像部品の形状および表示位置などが画面設計書通りにプログラミングされている。製品開発の評価段階における画面設計書情報3は、画像部品の名称である画像名に関する画像名情報10と、画像部品の形状に関する形状情報11と、画像部品の表示位置に関する表示位置情報12とを含む。画像名情報10、形状情報11および表示位置情報12は、相互に関連付けられている。前記表示位置情報12は、画像部品の左上座標を示す左上座標情報12aと、画像部品の右下座標を示す右下座標情報12bとを含む。
図1を再び参照して、本実施の形態の画面判定装置1は、画像部分データ生成手段15と、期待画像データ生成手段16と、判定手段17とを含む。この画像判定装置1は、前記自動検証システム101のコンピュータ104によって実現される。
前記画像部分データ生成手段15は、基準画面撮像データ21と前記画面設計書情報3とに基づいて、画像部分データを生成する。基準画面撮像データ21は、基準機器となる携帯電話機によって表示される基準画面を撮像することによって得られる。本実施の形態では、前記基準画面は、自動検証システム101に含まれる撮像装置102のカメラによって撮像される。
画像部分データ生成手段15は、基準画面撮像データ21が表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成する。このとき、画像部分データ生成手段15は、画面設計書情報3に基づいて、基準画面撮像画像における画像部分を特定する。詳しくは、画像部分データ生成手段15は、画面設計書情報3に含まれる画像名情報10および表示位置情報12に基づいて、基準画面撮像画像における画像部分を特定する。画像部分は、後述の一致するか否かの判定において、比較されるべき特徴部分である。
画像部分データ生成手段15は、画像部分データを生成した後、生成した画像部分データをコンピュータ104の記憶装置23に保存する。このとき、画像部分データ生成手段15は、画像部分データに、ファイル名を付ける。ファイル名は、画像部品が表示されている場合と表示されていない場合とで区別して付ける。
また画像部分データ生成手段15は、ファイル名に関するファイル名情報と、規定表示位置に関する規定表示位置情報とを、相互に関連付けて記憶装置23に保存する。本実施の形態では、規定表示位置情報として、画面設計書情報3に含まれる表示位置情報12のうち、左上座標情報12aが選ばれる。以下、画像部分データ、ファイル名情報および規定表示位置情報を含む情報を、画像部分関連情報24ということがある。
図5は、画像部品が表示された基準画面撮像画像26を示す図である。図6は、基準画面撮像画像26において特定される画像部分27を示す図である。図7は、図5に示す基準画面撮像画像26について、記憶装置23に保存される画像部分関連情報24aを示す図である。
画像部分データ生成手段15は、図5に示す基準画面撮像画像26に対して、たとえば図6において矩形の枠28で囲んだ画像部分27を特定して、画像部分データを生成する。基準画面撮像画像26における画像部分27の位置は、基準画面撮像画像26における画像部品の位置に相当する。
画像部分データ生成手段15は、画像部品が表示された基準画面撮像画像26を表す基準画面撮像データ21から生成した画像部分データを記憶装置23に保存するとき、画像部分データに、「画像名−ON」というファイル名を付ける。一例として述べると、ショートカットピクトの場合、画像部分データ生成手段15は、画像部分データには、「Shortcut-ON」というファイル名を付ける。また画像部分データ生成手段15は、ファイル名情報29と、規定表示位置情報30とを、相互に関連付けて記憶装置23に保存する。このようにして、画像部分データ27a、ファイル名情報29および規定表示位置情報30を、画像部分関連情報24aとして記憶装置23に保存する。
図8は、画像部品が表示されていない基準画面撮像画像31を示す図である。図9は、基準画面撮像画像31において特定される画像部分32を示す図である。図10は、図8に示す基準画面撮像画像31について、記憶装置23に保存される画像部分関連情報24bを示す図である。
画像部分データ生成手段15は、図8に示す基準画面撮像画像31に対して、たとえば図9において矩形の枠33で囲んだ画像部分32を特定して、画像部分データを生成する。基準画面撮像画像31における画像部分32の位置は、基準画面撮像画像31における画像部品の位置に相当する。
画像部分データ生成手段15は、画像部品が表示されていない基準画面撮像画像31を表す基準画面撮像データ21から生成した画像部分データを記憶装置23に保存するとき、画像部分データに、「画像名−OFF」というファイル名を付ける。一例として述べると、ショートカットピクトの場合、画像部分データ生成手段15は、画像部分データには、「Shortcut-OFF」というファイル名を付ける。また画像部分データ生成手段15は、ファイル名情報34と、規定表示位置情報35とを、相互に関連付けて記憶装置23に保存する。このようにして、画像部分データ32a、ファイル名情報34および規定表示位置情報35を、画像部分関連情報24bとして記憶装置23に保存する。
図11は、期待画像構成情報41を示す図である。図12は、期待画像42を示す図である。図13は、マスク構成情報43を示す図である。前記期待画像データ生成手段16は、期待画像構成情報41と前記画像部分関連情報24とに基づいて、期待画像データを生成する。
期待画像構成情報41は、開発者によって、予め作成される。期待画像構成情報41は、画像部品の名称である画像名に関する画像名情報45と、画像部品の表示状態に関する表示状態情報46と、画像部品の表示位置に関する表示位置情報47と、判定の要/不要に関する判定要/不要情報48とを含む。画像名情報45、表示状態情報46、表示位置情報47および判定要/不要情報48は、相互に関連付けられている。
前記表示状態情報46は、画像部品を表示するか否かを示す。前記表示位置情報47は、画像部品の左上の座標を示す左上座標情報である。前記判定要/不要情報48は、後述の一致するか否かの判定が必要か否かを示す。
期待画像データ生成手段16は、期待画像構成情報41に基づいて、ファイル名に関するファイル名情報を生成する。詳しくは、期待画像データ生成手段16は、期待画像構成情報41に含まれる画像名情報45および表示状態情報46に基づいて、後述の一致するか否かの判定に用いる画像部分データのファイル名に関するファイル名情報を作成する。このとき、期待画像データ生成手段16は、期待画像構成情報41に含まれる判定要/不要情報48に基づいて、後述の一致するか否かの判定が必要な画像部分データのファイル名に関するファイル名情報だけを生成する。
また期待画像データ生成手段16は、期待画像構成情報41から、後述の一致するか否かの判定に用いる画像部分データの表示位置情報を抽出する。このとき、期待画像データ生成手段16は、期待画像構成情報41に含まれる判定要/不要情報48に基づいて、後述の一致するか否かの判定が必要な画像部分データの表示位置情報だけを抽出する。
画像部品には、固定位置の画像部品と、浮動位置の画像部品とがある。固定位置の画像部品は、規定表示位置だけに表示される画像部品である。浮動位置の画像部品は、規定表示位置以外の位置にも表示される画像部品である。固定位置の画像部品については、期待画像構成情報41における表示位置情報47は、表示位置が規定表示位置であることを示す情報である。浮動位置の画像部品については、期待画像構成情報41における表示位置情報47は、具体的な座標を示す情報である。
期待画像データ生成手段16は、前述のように、期待画像構成情報41から、前記表示位置情報を抽出するとき、固定位置の画像部品については、画像部分関連情報24を参照して、表示位置が規定表示位置であることを示す情報を、規定表示位置の座標を示す情報に置換する。一例として述べると、ショートカットピクトは、固定位置の画像部品であり、このショートカットピクトについては、期待画像構成情報41の表示位置情報47は、表示位置が規定表示位置であることを示す情報である。期待画像データ生成手段16は、ショートカットピクトについては、画像部分関連情報24を参照して、表示位置が規定表示位置であることを示す情報を、ショートカットピクトの規定表示位置の座標(77,0)を示す情報に置換する。
さらに期待画像データ生成手段16は、前記生成したファイル名情報と、前記抽出した表示位置情報とに基づいて、画像部分データを、その画像部分データの表示位置情報に基づく表示位置に展開するとともに、後述の判定手段17がマスクデータを生成するために必要な判定位置情報を、マスク構成情報43として順次、記憶装置23に保存する。
マスク構成情報43は、ファイル名に関するファイル名情報51と、判定位置に関する判定位置情報52とを含む。ファイル名情報51および判定位置情報52は、相互に関連付けられている。前記判定位置情報52は、判定領域の左上の座標を示す左上座標情報52aと、判定領域の右下の座標を示す右下座標情報52bとを含む。
期待画像データ生成手段16は、前述のようにして、後述の一致するか否かの判定が必要なすべての画像部分データを展開して、図12に示すような期待画像42を作成して、期待画像42を表す期待画像データを生成する。期待画像データ生成手段16は、期待画像データを生成した後、生成した期待画像データを記憶装置23に保存する。以下、期待画像データおよびマスク構成情報43を含む情報を、期待画像関連情報53ということがある。
図14は、マスク56を示す図である。図15は、マスクされた対象画面撮像画像57の作成を説明するための図である。図16は、マスクされた対象画面撮像画像57と期待画像42とが一致するか否かの判定を説明するための図である。
前記判定手段17は、対象画面撮像データ58と前記期待画像関連情報53とに基づいて、対象画面撮像データ58が表す対象画面撮像画像59と期待画像データが表す期待画像42とが相互に一致するか否かを判定する。対象画面撮像データ58は、対象機器となる携帯電話機によって表示される対象画面を撮像することによって得られる。本実施の形態では、前記対象画面は、自動検証システム101に含まれる撮像装置102のカメラによって撮像される。
判定手段17は、記憶装置23に保存されている期待画像関連情報53に基づいて、マスクデータを生成する。判定手段17は、期待画像関連情報53に含まれるマスク構成情報43のうち、すべての判定位置情報を用いて、前記一致するか否かを判定すべき判定領域61を特定するマスク56を表すマスクデータを生成する。
また判定手段17は、対象画面撮像データ58およびマスクデータに基づいて、対象画面撮像画像59にマスク56を重ね合わせ、マスクされた対象画面撮像画像57を作成する。このようにして、判定手段17は、対象画面撮像画像59の全領域のうち、前記一致するか否かを判定すべき判定領域61を特定する。
さらに判定手段17は、マスクされた対象画面撮像画像57と期待画像42とが一致するか否かを判定する。換言すると、判定手段17は、判定領域61において、対象画面撮像画像59と期待画像42とが相互に一致するか否かを判定する。このとき、判定手段17は、対象画面撮像画像57および期待画像42に対して、各画素毎に濃度値の差分を取り、差分を合計した結果が予め定める範囲内であるとき一致すると判定し、それ以外のときは、一致しないと判定する。そして判定手段17は、判定結果62を出力する。
自動検証システム101では、画面判定装置1の判定手段17による判定結果62に応じて、合格/不合格の評価結果を出力する。自動検証システム101では、すべての判定領域61において一致した場合だけ合格という評価を出力し、判定領域61のいずれか一ヶ所でも不一致であった場合は不合格という評価を出力する。
図17は、画面判定装置1を用いた画面判定方法を説明するためのフローチャートである。この画面判定方法は、プログラムとして提供することができる。画面判定方法をコンピュータ104に実行させるためのプログラムは、前記コンピュータ104に予め記憶されている。
画面判定処理の開始指令が与えられると、ステップa1で、画面判定装置1は画面判定処理を開始して、ステップa2に進む。
ステップa2で、画面判定装置1の画像部分データ生成手段15は、基準機器となる携帯電話機によって表示される基準画面を撮像することによって得られる基準画面撮像データに基づいて、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成して、ステップa3に進む。
ステップa3で、画面判定装置1の期待画像データ生成手段16は、前記画像部分データに基づいて、画像部分データが表す1または複数の画像部分を用いて期待画像を作成して、期待画像を表す期待画像データを生成して、ステップa4に進む。
ステップa4で、画面判定装置1の判定手段17は、対象機器となる携帯電話機によって表示される対象画面を撮像することによって得られる対象画面撮像データと前記期待画像データとに基づいて、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定して、ステップa5に進む。ステップa5で、画面判定装置1は画面判定処理を終了する。
以上のような本実施の形態によれば、画像部分データ生成手段15によって、基準画面撮像データ21が表す基準画面撮像画像26,31を、その基準画面撮像画像26,31の少なくとも一部を構成する画像部分27,32に分解して、画像部分27,32を表す画像部分データ27a,27bを生成する。期待画像データ生成手段16によって、前記画像部分データ27a,27bが表す1または複数の画像部分27,32を用いて期待画像42を作成して、期待画像データを生成する。そして判定手段17によって、対象画面撮像データ58が表す対象画面撮像画像59と、期待画像データが表す期待画像42とが相互に一致するか否かを判定する。このように判定手段17によって、前記一致するか否かが判定されるので、作業者の目視による判定作業が不要であり、作業者の負担を軽減することができる。
対象画面撮像画像59は、対象機器となる携帯電話機によって表示される対象画面を撮像することによって得られる対象画面撮像データ58が表す画像である。また基準画面撮像画像26,31は、基準機器となる携帯電話機によって表示される基準画面を撮像することによって得られる基準画面撮像データ21が表す画像であり、期待画像42は、前記基準画面撮像画像26,31から得られる画像である。換言すると、対象画面撮像画像59および期待画像42は、いずれも同じ撮像装置102による撮像データが表す画像である。それ故、対象画面撮像画像59と期待画像42とで、解像度および色合いを同じにすることができ、さらに撮像に伴う歪みも同じにすることができる。したがって対象画面撮像画像59と期待画像42とが相互に一致するか否かを、正確に判定することができる。
また画像部分27,32は、基準画面撮像画像26,31を分解することによって得られ、期待画像42は、1または複数の画像部分27,32を用いて作成される。換言すると、画像部分27,32の組み合せおよび位置によって、所望の期待画像42を作成することができる。それ故、複数の対象画面撮像画像59に対応する複数の期待画像42を作成するにあたっては、各期待画像42に含まれるべき画像部分27,32がすべて揃えばよく、複数の対象画面に対応する複数の基準画面をそれぞれ撮像する必要はない。したがって、基準画面の撮像にかかる手間を軽減することができ、画面判定作業の効率化を図ることができる。
また本実施の形態によれば、対象画面撮像画像59の判定領域を特定して、この判定領域において、対象画面撮像画像59と期待画像42とが相互に一致するか否かを判定する。このように前記一致するか否かを判定すべき判定領域を特定するので、期待画像42を構成する画像部分27,32の数を必要最小限に抑えることができる。したがって期待画像42の作成に要する処理量を低減することができる。
また本実施の形態によれば、画像部分データ生成手段15は、画像部品が表示された基準画面撮像画像26についてだけ画像部分27に分解するのではなく、画像部品が表示されていない基準画面撮像画像31についても画像部分32に分解して、画像部分データを生成する。したがって本実施の形態の画面判定装置1は、画像部品が表示されないことが期待される場合にも適用することができ、汎用性を向上することができる。
前述の実施の形態は、本発明の例示に過ぎず、本発明の範囲内において構成を変更することができる。たとえば前記携帯型の電子機器は、簡易型携帯電話機(Personal
Handyphone System、略称PHS)であってもよく、また携帯情報端末装置(Personal
Digital Assistant、PDA)であってもよい。また電子機器は、必ずしも携帯型に限定されるものではなく、パーソナルコンピュータなどであってもよい。
また基準機器となる携帯電話機によって表示される基準画面として、開発者の確認用に作成された画像部品一覧表示画面が用いられてもよい。画像部品一覧表示画面は、開発者が複数の画像部品を一覧することができるように、複数の画像部品が並んで表示される画面である。
また前述の実施の形態では、画面設計書情報3に含まれる表示位置情報12は、左上座標情報12aおよび右下座標情報12bを含むけれども、本発明の実施の他の形態では、前記表示位置情報12は、左上座標情報12aおよび右下座標情報12bのいずれか一方に代えて、画像部品の大きさを示す情報を含んでもよい。
本発明の実施の一形態の画面判定装置1の構成を示すブロック図である。 自動検証システム101のブロック図である。 製品開発の初期段階における画面設計書情報2を示す図である。 製品開発の評価段階における画面設計書情報3を示す図である。 画像部品が表示された基準画面撮像画像26を示す図である。 基準画面撮像画像26において特定される画像部分27を示す図である。 図5に示す基準画面撮像画像26について、記憶装置23に保存される画像部分関連情報24aを示す図である。 画像部品が表示されていない基準画面撮像画像31を示す図である。 基準画面撮像画像31において特定される画像部分32を示す図である。 図8に示す基準画面撮像画像31について、記憶装置23に保存される画像部分関連情報24bを示す図である。 期待画像構成情報41を示す図である。 期待画像42を示す図である。 マスク構成情報43を示す図である。 マスク56を示す図である。 マスクされた対象画面撮像画像57の作成を説明するための図である。 マスクされた対象画面撮像画像57と期待画像42とが一致するか否かの判定を説明するための図である。 画面判定装置1を用いた画面判定方法を説明するためのフローチャートである。
符号の説明
1 画面判定装置
3 画面設計書情報
15 画像部品データ生成手段
16 期待画像データ生成手段
17 判定手段
21 基準画面撮像データ
24 画像部品関連情報
26,31 基準画面撮像画像
27,32 画像部分
27a,32a 画像部分データ
41 期待画像構成情報
42 期待画像
43 マスク構成情報
53 期待画像関連情報
56 マスク
57 マスクされた対象画面撮像画像
58 対象画面撮像データ
59 対象画面撮像画像
61 判定領域
62 判定結果

Claims (5)

  1. 基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データに基づいて、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成する画像部分データ生成手段と、
    前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像を表す期待画像データを生成する期待画像データ生成手段と、
    対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データと前記期待画像データとに基づいて、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定する判定手段とを含むことを特徴とする画面判定装置。
  2. 前記判定手段は、対象画面撮像画像の全領域のうち、前記一致するか否かを判定すべき判定領域を特定して、その判定領域において、対象画面撮像画像と期待画像とが相互に一致するか否かを判定することを特徴とする請求項1記載の画面判定装置。
  3. 前記基準機器および対象機器は、グラフィックユーザインターフェイスを有する携帯型の電子機器であることを特徴とする請求項1または2記載の画面判定装置。
  4. 基準機器によって表示される基準画面を撮像することによって得られる基準画面撮像データに基づいて、基準画面撮像データが表す基準画面撮像画像を、その基準画面撮像画像の少なくとも一部を構成する画像部分に分解して、画像部分を表す画像部分データを生成し、
    前記画像部分データが表す画像部分の表示位置に関する表示位置情報に基づいて、画像部分データが表す1または複数の画像部分を展開して期待画像を作成して、期待画像を表す期待画像データを生成し、
    対象機器によって表示される対象画面を撮像することによって得られる対象画面撮像データと前記期待画像データとに基づいて、対象画面撮像データが表す対象画面撮像画像と、期待画像データが表す期待画像とが相互に一致するか否かを判定することを特徴とする画面判定方法。
  5. 請求項4記載の画面判定方法をコンピュータに実行させるためのプログラム。
JP2004163532A 2004-06-01 2004-06-01 画面判定装置および画面判定方法 Expired - Fee Related JP4441332B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004163532A JP4441332B2 (ja) 2004-06-01 2004-06-01 画面判定装置および画面判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004163532A JP4441332B2 (ja) 2004-06-01 2004-06-01 画面判定装置および画面判定方法

Publications (2)

Publication Number Publication Date
JP2005346283A JP2005346283A (ja) 2005-12-15
JP4441332B2 true JP4441332B2 (ja) 2010-03-31

Family

ID=35498613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004163532A Expired - Fee Related JP4441332B2 (ja) 2004-06-01 2004-06-01 画面判定装置および画面判定方法

Country Status (1)

Country Link
JP (1) JP4441332B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5211951B2 (ja) * 2008-09-05 2013-06-12 富士ゼロックス株式会社 検査システム、検査装置、表示装置及びプログラム
JP5185188B2 (ja) * 2009-05-08 2013-04-17 パナソニック株式会社 映像再生装置の自動検証システム
JP6017200B2 (ja) * 2012-06-29 2016-10-26 株式会社日立システムズ 検査装置、検査システム、検査方法、携帯端末、及びプログラム
CN112805746A (zh) * 2018-08-28 2021-05-14 株式会社OPTiM 计算机系统、动作验证方法及程序

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3206096B2 (ja) * 1992-03-24 2001-09-04 カシオ計算機株式会社 入力データ処理装置
JP3627249B2 (ja) * 1993-12-15 2005-03-09 松下電工株式会社 画像処理装置
JP3533722B2 (ja) * 1994-09-30 2004-05-31 オムロン株式会社 不良検査方法およびその装置
JPH08265278A (ja) * 1995-03-27 1996-10-11 Kokusai Electric Co Ltd 通信・操作試験装置及びその試験方法
JPH08334476A (ja) * 1995-06-05 1996-12-17 Omron Corp 検査領域設定方法およびその装置ならびにその装置を用いた検査装置
JPH0962838A (ja) * 1995-08-24 1997-03-07 Nachi Fujikoshi Corp 高速パターンマッチング方法
JP2000124281A (ja) * 1998-10-20 2000-04-28 Hitachi Ltd パターンサーチ方法及びパターンサーチ装置
JP2000182056A (ja) * 1998-12-18 2000-06-30 Kobe Steel Ltd 画像処理装置
JP2003099288A (ja) * 2001-09-26 2003-04-04 Mitsubishi Electric Corp 携帯電話ソフトウエア自動試験方法および携帯電話ソフトウエア自動試験装置

Also Published As

Publication number Publication date
JP2005346283A (ja) 2005-12-15

Similar Documents

Publication Publication Date Title
US6714689B1 (en) Image synthesizing method
JP5170043B2 (ja) 画像投影システム、画像投影方法および画像投影プログラム
JP6455010B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2001268202A (ja) 携帯電話の検査装置
US20170322680A1 (en) Method and apparatus for setting background of ui control, and terminal
CN113407461A (zh) 界面测试方法、装置、电子设备及存储介质
US11416978B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
US9357125B2 (en) Method and apparatus of displaying portrait on display
JP4441332B2 (ja) 画面判定装置および画面判定方法
US20150365547A1 (en) Image processing device, image processing method, and storage medium storing image processing program
CN110362250B (zh) 一种图像局部放大的方法、装置和显示设备
JP7005337B2 (ja) 表示制御装置及びその制御方法、並びにプログラム
KR102038741B1 (ko) 화상 처리 장치, 화상 처리 방법 및 저장 매체
KR100686162B1 (ko) 이동통신 단말기 및 섬네일 이미지 표시 방법
JP2010287079A (ja) データエントリシステムおよびデータエントリ方法
US20100283797A1 (en) Image processing content determining apparatus, computer readable medium storing thereon image processing content determining program and image processing content determining method
CN115086631B (zh) 图像生成方法和信息处理装置
EP3125191A1 (en) Image processing device
US11830177B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
CN107046610B (zh) 终端装置、诊断系统和诊断方法
JPH10108003A (ja) 画像合成装置および画像合成方法
US20110128398A1 (en) Image Processing Apparatus, Image Processing Method, and Computer Program
US9727224B2 (en) Image processing device, image processing method, and storage medium storing image processing program
JPH08125844A (ja) 画像処理方法およびその方法を用いた画像処理システム
JP7102844B2 (ja) フレーム補間装置、フレーム補間方法およびフレーム補間プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees