JP6898968B2 - Methods and devices for determining response time - Google Patents
Methods and devices for determining response time Download PDFInfo
- Publication number
- JP6898968B2 JP6898968B2 JP2019127386A JP2019127386A JP6898968B2 JP 6898968 B2 JP6898968 B2 JP 6898968B2 JP 2019127386 A JP2019127386 A JP 2019127386A JP 2019127386 A JP2019127386 A JP 2019127386A JP 6898968 B2 JP6898968 B2 JP 6898968B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- response
- frame
- response time
- operation command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
Description
本発明の実施形態は、コンピュータ技術分野に関し、具体的に、応答時間を確定するための方法及び装置に関する。 Embodiments of the present invention relate to the field of computer technology, specifically to methods and devices for determining response times.
インターネット技術の絶え間ない発展と移動端末の急速な普及により、様々なタイプのアプリケーション(App、Application)が次々と登場している。ユーザーがこれらのAppを使用する時に、動かなくなったり遅延したりする現象が頻繁に発生する。これらの問題を解決するために、Appの応答時間をテストする必要がある。現在、Appの応答時間は、通常、手動テストまたはログ分析によってテストされている。 Due to the continuous development of Internet technology and the rapid spread of mobile terminals, various types of applications (Applications) are appearing one after another. When users use these apps, the phenomenon of getting stuck or delayed frequently occurs. To solve these problems, it is necessary to test the response time of App. Currently, App response times are typically tested by manual testing or log analysis.
本発明の実施形態は、応答時間を確定するための方法及び装置を提供する。 Embodiments of the present invention provide methods and devices for determining response times.
第1の態様において、本発明の実施形態は、応答時間を確定するための方法を提供し、当該方法は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することと、映像をフレームシーケンスに解析することと、フレームシーケンスから開始フレーム及び終了フレームを確定することであって、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含むフレームであり、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、ことと、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することと、を備える。 In a first aspect, embodiments of the invention provide a method for determining response time, which is pre-photographed and displayed on the screen when the target operation command is executed by the equipment to be detected. Acquiring the image image, analyzing the image into a frame sequence, and determining the start frame and end frame from the frame sequence. At the start frame, the detection target equipment starts executing the target operation command. It is a frame containing an image sometimes displayed on the screen, and the end frame is a frame containing an image displayed on the screen when the equipment to be detected completes the execution of the target operation command, and the start frame and the end frame. Based on the above, the response time when the target operation command is executed by the detection target equipment is determined.
一部の実施形態において、当該応答時間を確定するための方法は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力することをさらに備える。 In some embodiments, the method for determining the response time provides presentation information to indicate that the response time is greater than the target threshold in response to the determination that the response time is greater than the target threshold. Further prepare to output.
一部の実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得される。 In some embodiments, the target threshold is obtained by acquiring a set of past response times and determining the target threshold based on the set of past response times.
一部の実施形態において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することの前に、応答時間を確定するための方法は、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信することと、目標操作指令の実行を検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信することと、クライアントから送信された目標映像を受信し、目標映像を、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定することであって、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である、ことと、をさらに備える。 In some embodiments, the method for determining the response time before acquiring an image of a pre-captured image, which is displayed on the screen when the target operation command is executed by the equipment to be detected, is a goal. In response to receiving a signal to indicate that the equipment to be detected starts executing the operation command, the equipment to be detected sends a start command to indicate the start of video recording to the client and executes the target operation command. In response to the reception of the signal indicating that is completed, a stop command for indicating the stop of recording of the video is transmitted to the client, and the target video transmitted from the client is received and the target video is set as the target. The operation command is determined as the image of the image displayed on the screen when the detection target equipment is executed, and the target image is the target image in which the client starts recording in response to the reception of the start command and receives the stop command. It is further provided that the video is acquired by stopping recording in response.
一部の実施形態において、フレームシーケンスから開始フレーム及び終了フレームを確定することは、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定することを備える。 In some embodiments, determining the start and end frames from the frame sequence is adjacent in response to the determination that the similarity of two adjacent frames in the frame sequence is greater than a predetermined threshold. One of the two frames is defined as a start frame or an end frame.
第2の態様において、本発明の実施形態は、応答時間を確定するための装置を提供し、当該装置は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成された取得ユニットと、映像をフレームシーケンスに解析するように構成された解析ユニットと、フレームシーケンスから開始フレーム及び終了フレームを確定するように構成されたキーフレーム確定ユニットであって、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含むフレームであり、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、キーフレーム確定ユニットと、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定するように構成された応答時間確定ユニットと、を備える。 In a second aspect, an embodiment of the present invention provides a device for determining response time, which is pre-photographed and displayed on a screen when a target operation command is executed by the equipment to be detected. An acquisition unit configured to acquire the image image, an analysis unit configured to analyze the image into a frame sequence, and a keyframe confirmation configured to determine the start and end frames from the frame sequence. In the unit, the start frame is a frame containing an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame is a frame when the detection target equipment completes the execution of the target operation command. A response configured to determine the response time when the target equipment executes the target operation command based on the keyframe confirmation unit, which is the frame containing the image displayed on the screen, and the start and end frames. It is equipped with a time determination unit.
一部の実施形態において、当該応答時間を確定するための装置は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力するように構成された出力ユニットをさらに備える。 In some embodiments, the device for determining the response time provides presentation information to indicate that the response time is greater than the target threshold in response to the determination that the response time is greater than the target threshold. It further comprises an output unit configured to output.
一部の実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得される。 In some embodiments, the target threshold is obtained by acquiring a set of past response times and determining the target threshold based on the set of past response times.
一部の実施形態において、当該応答時間を確定するための装置は、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成された開始指令送信ユニットと、目標操作指令を検出対象設備が実行完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信するように構成された停止指令送信ユニットと、クライアントから送信された目標映像を受信し、目標映像を、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定するように構成された受信ユニットであって、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である、受信ユニットと、をさらに備える。 In some embodiments, the device for determining the response time is for indicating the start of video recording in response to the reception of a signal to indicate that the equipment to be detected has begun to execute the target operation command. A start command transmission unit configured to send a start command to the client and a target operation command to indicate that video recording has stopped in response to reception of a signal indicating that the equipment to be detected has completed execution. An image displayed on the screen when the stop command transmission unit configured to send a stop command to the client and the target image transmitted from the client are received and the target operation command is executed by the detection target equipment. The target video is acquired by the receiving unit configured to be determined as the video of, in which the client starts recording in response to the reception of the start command and stops recording in response to the reception of the stop command. It further includes a receiving unit, which is an image.
一部の実施形態において、キーフレーム確定ユニットは、さらに、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定するように構成される。 In some embodiments, the keyframe determination unit further comprises one of two adjacent frames in response to the determination that the similarity of two adjacent frames in the frame sequence is greater than a predetermined threshold. It is configured to determine one as the start or end frame.
第3の態様において、本発明の実施形態は、1つまたは複数のプロセッサーと、1つまたは複数のプログラムが格納されている記憶装置とを備えるサーバであって、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサーによって実行されると、前記1つまたは複数のプロセッサーに第1の態様のいずれかの実施形態に記載の方法を実現させるサーバを提供する。 In a third aspect, an embodiment of the present invention is a server comprising one or more processors and a storage device in which one or more programs are stored, wherein the one or more programs are included. When executed by the one or more processors, the one or more processors provide a server that implements the method according to any embodiment of the first aspect.
第4の態様において、本発明の実施形態は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、前記プログラムがプロセッサーによって実行されると、第1の態様のいずれかの実施形態に記載の方法が実現されるコンピュータ可読媒体を提供する。 In a fourth aspect, the embodiment of the present invention is a computer-readable medium in which a computer program is stored, and when the program is executed by a processor, the embodiment of the first aspect is described. Provide a computer-readable medium in which the method is realized.
本発明の実施形態によって提供される応答時間を確定するための方法及び装置は、まず映像のフレームシーケンスにおける開始フレーム及び終了フレームを確定することによって、開始フレーム及び終了フレームに基づいて応答時間を確定することができる。手動テストと比較すると、肉眼の知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。なお、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。 The method and apparatus for determining the response time provided by the embodiment of the present invention first determines the response time based on the start frame and the end frame by determining the start frame and the end frame in the frame sequence of the video. can do. Compared to manual testing, it is possible to analyze with a particle size that exceeds what can be perceived by the naked eye, and the accuracy of the obtained response time can be improved. Compared with the log analysis method, the accuracy of the acquired response time can be improved by avoiding the error due to the asynchronous operation.
本発明の他の特徴、目的及び利点は、図面を参照して非限定的な実施例に対してなされる詳細な説明によってさらに明らかになる。
以下、図面と実施例を参照しながら、本願を詳細に説明する。ここで記載される具体的な実施例は、関連の発明を解釈するのみに用いられ、当該発明に対する限定ではないことは理解される。なお、説明の便宜上、図面には、関連の発明に関わる部分のみを示す。 Hereinafter, the present application will be described in detail with reference to the drawings and examples. It is understood that the specific examples described herein are used only to interpret the related invention and are not limited to the invention. For convenience of explanation, the drawings show only the parts related to the related invention.
なお、矛盾が生じない限り、本願における実施例及び実施例における特徴は互いに組み合わせることができるものとする。以下、図面を参照しながら、実施例を併せて本願を詳しく説明する。 As long as there is no contradiction, the examples in the present application and the features in the examples can be combined with each other. Hereinafter, the present application will be described in detail together with examples with reference to the drawings.
図1は、本発明の実施例が応用される応答時間を確定するための方法または応答時間を確定するための装置の例示的なシステムアーキテクチャ図を示す。 FIG. 1 shows an exemplary system architecture diagram of a method for determining a response time to which an embodiment of the present invention is applied or an apparatus for determining a response time.
図1に示すように、システムアーキテクチャ100は、サーバ101、クライアント102、検出対象設備103及びネットワーク104、105を備えてもよい。ここで、ネットワーク104は、サーバ101とクライアント102との間で通信リンクを提供するための媒体として使用される。ネットワーク105は、サーバ101と検出対象設備103との間で通信リンクを提供するための媒体として使用される。ネットワーク104、105は、有線、無線通信リンクまたは光ファイバケーブルなどの様々な種類の接続を備えてもよい。
As shown in FIG. 1, the
クライアント102は、ネットワーク104を介してサーバ101と通信して、メッセージなどを送受信する。検出対象設備103は、ネットワーク105を介してサーバ101と通信して、メッセージなどを送受信する。
The
サーバ101は、クライアント102の撮影した映像に対して解析などの処理を行うことができる映像処理サーバのような、様々なサービスを提供するサーバであってもよい。映像処理サーバは、受信された映像に対して解析などの処理を行って、処理結果(例えば、応答時間)を取得することができる。
The
検出対象設備103は、ハードウェアであっても、ソフトウェアであってもよい。検出対象設備103がハードウェアである場合、表示画面を有し、且つアプリケーションのインストールをサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップポータブルコンピュータ及びデスクトップコンピュータなどを含むがこれらに限定されない。検出対象設備103がソフトウェアである場合、前記に列挙された電子機器にインストールされることができる。複数のソフトウェアまたはソフトウェアモジュールとして、あるいは単一のソフトウェアまたはソフトウェアモジュールとして実現されることができる。ここでは具体的に限定しない。
The
なお、本発明の実施例によって提供される応答時間を確定するための方法は、一般にサーバ101によって実行され、対応して、応答時間を確定するための装置は、一般にサーバ101に設置されている。
The method for determining the response time provided by the embodiment of the present invention is generally executed by the
サーバ101、クライアント102は、ハードウェアであっても、ソフトウェアであってもよい。サーバ101、クライアント102がハードウェアである場合、複数の設備から構成された分散型設備クラスタで実現されることもでき、単一の設備で実現されることもできる。サーバ101、クライアント102がソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュールで実現されることもでき、単一のソフトウェアまたはソフトウェアモジュールで実現されることもでき、ここでは具体的に限定しない。
The
図1におけるサーバ、クライアント、検出対象設備及びネットワークの数は、単なる例示であることを理解しなければならない。実現の需要に応じて、任意の数のサーバ、クライアント、検出対象設備及びネットワークを有してもよい。 It should be understood that the number of servers, clients, equipment to be detected and networks in FIG. 1 is merely an example. It may have any number of servers, clients, equipment to be detected and networks, depending on the demands of realization.
続いて、図2を参照すると、本発明に係る応答時間を確定するための方法の一実施例のフロー200である。
Subsequently, with reference to FIG. 2, it is a
ステップ201において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得する。
In
本実施例において、応答時間を確定するための方法の実行主体(例えば、図1に示すサーバ101)は、通信接続されたクライアント(例えば、図1に示すクライアント102)から、検出対象設備(例えば、図1に示す検出対象設備103)が目標操作指令を実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することができる。ここで、操作指令は、コンピュータにある操作を実行させるように指示するための指令であってもよい。実際には、操作指令は、様々な既存のコンピュータ言語(例えば、機械言語、アセンブリ言語、高級言語)によって表現されることができる。目標操作指令は、技術者によって入力された操作指令であってもよく、ユーザーがある操作を行うことによってトリガされた指令であってもよい。
In this embodiment, the execution subject of the method for determining the response time (for example, the
検出対象設備が目標操作指令を実行する時に、対応するイメージが検出対象設備のディスプレイに表示される。一例として、検出対象設備が目標操作指令を実行する前に、技術者は、クライアントの撮影機能をオンにして、検出対象設備のディスプレイに揃えて撮影を開始することができる。検出対象設備が目標操作指令の実行を完成した後、撮影を停止することができる。これにより、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像を取得することができる。他の一例として、検出対象設備にインストールされたスクリーンレコーディング機能付きアプリケーションで撮影を完了することもできる。これにより、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像を取得することもできる。 When the equipment to be detected executes the target operation command, the corresponding image is displayed on the display of the equipment to be detected. As an example, before the detection target equipment executes the target operation command, the technician can turn on the shooting function of the client and start shooting in line with the display of the detection target equipment. Shooting can be stopped after the equipment to be detected completes the execution of the target operation command. As a result, it is possible to acquire an image of the image displayed on the screen when the detection target equipment executes the target operation command. As another example, shooting can be completed with an application with screen recording function installed in the equipment to be detected. As a result, it is possible to acquire an image of the image displayed on the screen when the detection target equipment executes the target operation command.
なお、前記検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像は、前記実行主体にローカルで格納されることもできる。この時、前記実行主体は、検出対象設備が行目標操作指令を実行する時にスクリーンに表示されるイメージの映像を、直接にローカルで取得することができる。 The image of the image displayed on the screen when the detection target equipment executes the target operation command can also be stored locally in the execution subject. At this time, the execution subject can directly and locally acquire the image of the image displayed on the screen when the detection target equipment executes the line target operation command.
ステップ202において、映像をフレームシーケンスに解析する。
In
本実施例において、前記実行主体は、様々な方法によって、ステップ201で取得した映像をフレームシーケンスに解析することができる。実際に、映像は、複数の静止イメージからなり、肉眼には視覚的な一時停止現象があるため、1秒当たりに表示されるフレーム数が一定の値を超えると、肉眼では連続した映像が観察される。従って、様々な既存の映像処理ソフトウェアによって、映像をフレームシーケンスに復元することができる。実際に、映像のフレームレートは、1秒当たりに表示されるフレームの数を表示することができる。選択的に、映像のフレームレート(例えば、240fpsであってもよい)を向上させることによって、フレームシーケンスにおけるイメージの数を増加することができる。これにより、後続の処理が容易になる。
In this embodiment, the executing subject can analyze the video acquired in
ステップ203において、フレームシーケンスから開始フレーム及び終了フレームを確定する。
In
本実施例において、前記実行主体は、様々な方法によって開始フレーム及び終了フレームを確定することができる。ここで、開始フレームは、検出対象設備が目標操作指令を実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む。 In this embodiment, the executing subject can determine the start frame and the end frame by various methods. Here, the start frame includes an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame is displayed on the screen when the detection target equipment completes the execution of the target operation command. Includes image.
一例として、前記実行主体は、以下の方法によって開始フレーム及び終了フレームを確定することができる。 As an example, the executing subject can determine the start frame and the end frame by the following method.
第1のステップにおいて、イメージにおけるノイズ情報を減少し、後続の処理が容易になるように、フレームシーケンスにおける各イメージに対して2値化処理を行う。 In the first step, binarization processing is performed on each image in the frame sequence so as to reduce noise information in the image and facilitate subsequent processing.
第2のステップにおいて、2値化処理されたフレームシーケンスにおける各イメージに対して、各イメージ中の連結体(Connected)を決定する。これにより、各イメージに表示される複数の対象に対する区別を実現し、後続の処理が容易になる。 In the second step, for each image in the binarized frame sequence, a connected in each image is determined. This makes it possible to distinguish between a plurality of objects displayed in each image and facilitate subsequent processing.
第3のステップにおいて、第2のステップの処理を経たフレームシーケンスにおけるイメージに対して、各組の隣接したフレームの間の類似度を計算することができる。これを基に、類似度の小さいものから大きいものの順序で、2組の隣接したフレームを選択する。選択された2組の隣接したフレームの時間軸での位置に応じて、時間的に早い1組の隣接したフレームを第1隣接フレームとして決定し、時間的に遅い1組の隣接フレームを第2隣接フレームとして決定することができる。さらに、一例として、第1隣接フレームにおける2つのフレームに対して、この2つのフレーム中の時間的に早い1つのフレームを開始フレームとして決定することができる。第2隣接フレームにおける2つのフレームに対して、この2つのフレーム中の時間的に早い1つのフレームを終了フレームとして決定することができる。 In the third step, the similarity between adjacent frames of each set can be calculated for the image in the frame sequence processed in the second step. Based on this, two sets of adjacent frames are selected in order from the one with the smallest similarity to the one with the highest similarity. Depending on the position of the two selected adjacent frames on the time axis, one set of adjacent frames that are early in time is determined as the first adjacent frame, and one set of adjacent frames that are late in time is determined as the second adjacent frame. It can be determined as an adjacent frame. Further, as an example, with respect to the two frames in the first adjacent frame, one frame in the two frames that is earlier in time can be determined as the start frame. With respect to the two frames in the second adjacent frame, one frame in the two frames that is earlier in time can be determined as the end frame.
本実施例の一部の選択的な実施形態において、フレームシーケンスから開始フレーム及び終了フレームを確定することは、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレームにおける1つのフレームを開始フレームまたは終了フレームとして確定することを備える。 In some selective embodiments of this embodiment, determining the start and end frames from the frame sequence determines that the similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold. In response to, one frame in two adjacent frames is settled as a start frame or an end frame.
ステップ204において、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。
In
本実施例において、前記実行主体は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することができる。実際には、映像に時間軸が含まれているので、映像中の各フレームは、時間軸上の1つの時点に対応する。従って、開始フレーム及び終了フレームの時間軸上に対応される2つの時点を確定することができる。その後、この2つの時点の間の差を、目標操作指令を検出対象設備が実行する時の応答時間として確定することができる。 In this embodiment, the execution subject can determine the response time when the detection target equipment executes the target operation command based on the start frame and the end frame. In reality, since the video includes a time axis, each frame in the video corresponds to one time point on the time axis. Therefore, it is possible to determine the two time points corresponding to the time axis of the start frame and the end frame. After that, the difference between these two time points can be determined as the response time when the target operation command is executed by the equipment to be detected.
本実施例の一部の選択的な実施形態において、当該応答時間を確定するための方法は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力することをさらに備えてもよい。 In some selective embodiments of this embodiment, the method for determining the response time is that the response time is greater than the target threshold in response to the determination that the response time is greater than the target threshold. It may be further provided to output presentation information for indicating.
本実施例の一部の選択的な実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することによって取得されたものである。 In some selective embodiments of this embodiment, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times. Is.
続いて、図3を参照すると、図3は、本実施例に係る応答時間を確定するための方法の1つの応用シナリオの模式図である。図3の応用シナリオにおいて、応答時間を確定するための方法の実行主体は、サーバ301であってもよい。検出対象設備は、タブレットコンピュータ302であってもよい。その中にはインスタントメッセージングアプリケーションがインストールされている。図面では、当該インスタントメッセージングアプリケーションのログイン画面が表示されている。サーバ301は、ブルートゥース(登録商標)によってスマートフォン300に接続される。サーバ301は、データ線を介してタブレットコンピュータ302に接続される。スマートフォン300は、タブレットコンピュータ302がログイン指令を実行する時にスクリーンに表示されるイメージを予め撮影することで、ログイン指令をタブレットコンピュータ302が実行する時にスクリーンに表示されるイメージの映像を取得することができる。その後、サーバ301は、スマートフォン300から前記映像3011を取得することができる。その後、映像をフレームシーケンス3012に解析することができる。これを基に、フレームシーケンス3012における隣接するイメージの類似度を計算することにより、フレームシーケンス3012から開始フレーム3013及び終了フレーム3014を確定する。開始フレーム3013及び終了フレーム3014の時間軸に対応される2つの時点の差に基づいて、前記インスタントメッセージングアプリケーションのログイン操作指令をタブレットコンピュータ302が実行する時の応答時間3015を取得する。
Subsequently, with reference to FIG. 3, FIG. 3 is a schematic diagram of one application scenario of the method for determining the response time according to the present embodiment. In the application scenario of FIG. 3, the execution subject of the method for determining the response time may be the
本発明の前記実施例により提供される応答時間を確定するための方法は、まず、映像をフレームシーケンスに解析して、開始フレーム及び終了フレームを確定することができる。これを基に、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。手動テストと比較すると、肉眼が知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。さらに、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。 The method for determining the response time provided by the embodiment of the present invention can first analyze the video into a frame sequence to determine the start and end frames. Based on this, the response time when the detection target equipment executes the target operation command is determined based on the start frame and the end frame. Compared to manual testing, it is possible to analyze with a particle size that exceeds what is perceptible to the naked eye, and the accuracy of the obtained response time can be improved. Further, as compared with the log analysis method, the accuracy of the acquired response time can be improved by avoiding the error due to the asynchronous operation.
さらに図4に、応答時間を確定するための方法のまた1つの実施例のフロー400を示す。当該応答時間を確定するための方法のフロー400は、以下のステップを含む。
Further, FIG. 4 shows a
ステップ401において、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信する。
In
本実施例において、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信したことに応答して、応答時間を確定するための方法の実行主体(例えば、図1に示すサーバ101)は、クライアント(例えば、図1に示すクライアント102)に、映像の録画開始を示すための開始指令を送信することができる。ここで、目標操作指令を検出対象設備が実行し始めることを示すための信号は、検出対象設備によって前記実行主体に送信されたものであってもよい。
In this embodiment, the execution subject of the method for determining the response time in response to the reception of the signal indicating that the detection target equipment starts executing the target operation command (for example, the server shown in FIG. 1). The 101) can transmit a start command for indicating the start of recording of the video to the client (for example, the
実際に、技術者は、検出対象設備をテストするためのテストケースを予め作成することができる。1つのテストケースは、ユーザーの1つまたは複数の操作に対応することができる。例えば、ログインテストケースは、ユーザーのログイン操作に対応することができる。更新テストケースは、ユーザーの更新操作に対応することができる。予め作成されたテストケースは、前記実行主体ローカルに格納されることができる。 In fact, the technician can pre-create a test case for testing the equipment to be detected. One test case can correspond to one or more operations of the user. For example, a login test case can accommodate a user's login operation. The update test case can correspond to the user's update operation. The test case created in advance can be stored locally in the execution subject.
例えば、ログイン指令(ユーザーログイン操作によってトリガされた指令)をテスト対象設備(検出対象設備)が実行する時の応答時間をテストする必要がある場合、前記実行主体は、ログインテストケースをテスト対象設備に送信することができる。これによって、テスト対象設備は、ログインテストケースを実行することで、ユーザーがテスト対象設備でログイン操作をすることと同じ効果を達成することができる。ログインテストケースの開始に応答して、テスト対象設備は、目標操作指令を検出対象設備が実行し始めることを示すための信号を前記実行主体に送信することができる。例えば、1つの中断信号であってもよい。これによって、前記実行主体は、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信することができる。これを基に、前記実行主体は、映像の録画開始を示すための開始指令をクライアントに送信することができる。 For example, when it is necessary to test the response time when the test target equipment (detection target equipment) executes a login command (command triggered by a user login operation), the executing entity uses the login test case as the test target equipment. Can be sent to. As a result, the equipment to be tested can achieve the same effect as the user performing a login operation on the equipment to be tested by executing the login test case. In response to the start of the login test case, the test target equipment can send a signal to the executing subject to indicate that the detection target equipment starts executing the target operation command. For example, it may be one interruption signal. As a result, the executing subject can receive a signal indicating that the detection target equipment starts executing the target operation command. Based on this, the executing subject can transmit a start command for indicating the start of video recording to the client.
ステップ402において、目標操作指令を検出対象設備が実行完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信する。
In
本実施例において、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信したことに応答して、前記実行主体は、映像の録画停止を示すための停止指令をクライアントに送信することができる。 In the present embodiment, in response to receiving a signal indicating that the target equipment for detecting the target operation command has been executed, the executing subject transmits a stop command for indicating the stop of video recording to the client. can do.
続いてステップ401におけるログインテストケースを例として、ログインテストケースの実行を完成したことに応答して、テスト対象設備は、目標操作指令を検出対象設備が実行完成したことを示すための信号を、前記実行主体に送信することができる。例えば、1つの中断信号であってもよい。これによって、前記実行主体は、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信することができる。これを基に、前記実行主体は、映像の録画停止を示すための停止指令をクライアントに送信することができる。
Next, taking the login test case in
ステップ403において、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定する。
In
本実施例において、前記実行主体は、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定することができる。ここで、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である。 In the present embodiment, the execution subject can receive the target image transmitted from the client and determine the target image as an image image displayed on the screen when the detection target equipment executes the target operation command. .. Here, the target video is a video acquired by the client starting recording in response to the reception of the start command and stopping recording in response to the reception of the stop command.
ステップ404において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得する。
In
ステップ405において、映像をフレームシーケンスに解析する。
In
ステップ406において、フレームシーケンスから開始フレーム及び終了フレームを確定する。
In
ここで、開始フレームは、検出対象設備が目標操作指令を実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む。 Here, the start frame includes an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame is displayed on the screen when the detection target equipment completes the execution of the target operation command. Includes image.
ステップ407において、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。
In
本実施例において、ステップ404〜407の具体的な実現及びそれからもたらす技術的効果は、図2の対応する実施例におけるステップ201〜204を参照することができ、ここでは繰り返して説明しない。 In this example, the specific realization of steps 404-407 and the technical effects resulting from them can be referred to in steps 201-204 of the corresponding embodiment of FIG. 2, which will not be repeated here.
図4から分かるように、図2の対応する実施例と比較すると、本実施例における応答時間を確定するための方法は、クライアントに開始指令及び停止指令を送信することによって、クライアントに映像の録画を完成させるように制御する。手動録画と比較して、自動録画を実現することができる。 As can be seen from FIG. 4, as compared to the corresponding embodiment of FIG. 2, the method for determining the response time in this embodiment is to record a video to the client by transmitting a start command and a stop command to the client. Control to complete. Compared with manual recording, automatic recording can be realized.
さらに図5を参照すると、前記各図に示す方法に対する実現として、本発明は、応答時間を確定するための装置を提供し、当該装置の実施例は、図2に示す方法実施例に対応され、当該装置は、具体的に様々な電子機器に適用される。 Further referring to FIG. 5, as a realization of the methods shown in each of the above figures, the present invention provides an apparatus for determining a response time, and examples of the apparatus correspond to the method examples shown in FIG. , The device is specifically applied to various electronic devices.
図5に示すように、本実施例の応答時間を確定するための装置は、取得ユニット501、解析ユニット502、キーフレーム確定ユニット503及び応答時間確定ユニット504を備える。ここで、取得ユニット501は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成される。解析ユニット502は、映像をフレームシーケンスに解析するように構成される。キーフレーム確定ユニット503は、フレームシーケンスから開始フレーム及び終了フレームを確定するように構成される。ここで、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、目標操作指令の実行を検出対象設備が完成した時にスクリーンに表示されるイメージを含む。応答時間確定ユニット504は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定するように構成される。
As shown in FIG. 5, the device for determining the response time of this embodiment includes an
本実施例において、応答時間を確定するための装置500における取得ユニット501、解析ユニット502、キーフレーム確定ユニット503及び応答時間確定ユニット504の具体的な処理及びそれがもたらす技術的な効果は、図2の対応する実施例におけるステップ201〜204と類似するので、ここでは繰り返して説明しない。
In this embodiment, the specific processing of the
本実施例の一部の選択的な実施形態において、応答時間を確定するための装置500は、出力ユニット(図示せず)をさらに備えてもよい。ここで、出力ユニットは、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力するように構成される。
In some selective embodiments of this embodiment, the
本実施例の一部の選択的な実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得されたものである。 In some selective embodiments of this embodiment, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times. It is a thing.
本実施例の一部の選択的な実施形態において、応答時間を確定するための装置500は、開始指令送信ユニット(図示せず)、停止指令送信ユニット(図示せず)及び受信ユニット(図示せず)をさらに備える。ここで、開始指令送信ユニットは、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信したことに応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成される。停止指令送信ユニットは、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信したことに応答して、映像の録画停止を示すための停止指令をクライアントに送信するように構成される。受信ユニットは、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定するように構成される。ここで、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である。
In some selective embodiments of this embodiment, the
本実施例の一部の選択的な実施形態において、キーフレーム確定ユニット503は、さらに、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定するように構成される。
In some selective embodiments of this embodiment, the
本実施例において、前記応答時間を確定するための装置500における解析ユニット502は、まず、取得ユニット501により取得された映像をフレームシーケンスに解析することができ、次に、キーフレーム確定ユニット503は、開始フレーム及び終了フレームを確定することができる。これを基に、応答時間確定ユニット504は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することができる。手動テストと比較すると、肉眼が知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。なお、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。
In this embodiment, the
以下、図6に、本発明の実施例のサーバを実現するのに適するコンピュータシステム600の構造の模式図を示す。図6に示すサーバは、単に1つの例示であり、本発明の実施例の機能及び使用範囲にいずれの限定をもたらすものではない。
Hereinafter, FIG. 6 shows a schematic diagram of the structure of the
図6に示すように、コンピュータシステム600は、読み取り専用メモリ(ROM)602に格納されたプログラム、または記憶部分608からランダムアクセスメモリ(RAM)603にローディングされたプログラムによって、様々な適切な動作及び処理を実行することができる中央処理装置(CPU)601を備える。RAM603にはさらにシステム600の操作に必要な各種プログラムとデータが格納されている。CPU601、ROM602及びRAM603は、バス604を介して相互接続される。入力/出力(I/O)インターフェース605もバス604に接続される。
As shown in FIG. 6, the
キーボード、マウスなどを備える入力部分606、液晶ディスプレイ(LCD)など及びスピーカなどを備える出力部分607、ハードディスクなどを備える記憶部分608、及びLANカード、モデムなどを備えるネットワークインターフェースカードの通信部分609は、I/Oインターフェース605に接続される。通信部分609は、インターネットなどのネットワークを介して通信処理を実行する。ドライブ610も必要に応じてI/Oインターフェース605に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体611は、必要に応じてドライブ610に装着されて、それから読み出されるコンピュータプログラムが必要に応じて記憶部分608にインストールされるようにする。
The
特に、本開示に係る実施例において、フローチャートを参照して上述した過程は、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に担持されているコンピュータプログラムを備えるコンピュータプログラム製品を備え、当該コンピュータプログラムは、フローチャートに示された方法を実行するプログラムコードを備える。このような実施例において、当該コンピュータプログラムは、通信部分609を介してネットワークからダウンロード及びインストールされることができ、および/またはリムーバブル媒体611からインストールされることができる。当該コンピュータプログラムが中央処理装置(CPU)601によって実行される時、本発明の方法に限定された前記機能を実行する。
In particular, in the embodiment according to the present disclosure, the process described above with reference to the flowchart can be realized as a computer software program. For example, an embodiment of the present disclosure comprises a computer program product comprising a computer program carried on a computer readable medium, the computer program comprising program code that executes the method shown in the flowchart. In such an embodiment, the computer program can be downloaded and installed from the network via the
本発明に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体または両方の任意の組み合わせであることができることを説明すべきである。コンピュータ可読記憶媒体は、例えば、電子、磁気、光、電磁気、赤外線、または半導体のシステム、装置、またはデバイス、またはこれらの任意の組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つまたは複数のワイヤを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、光記憶素子、磁気記憶素子、またはこれらの任意の組み合わせを備えるが、これらに限定されない。本発明において、コンピュータ可読記憶媒体は、プログラムを備えるかまたは格納する任意の有形の媒体であることができ、当該プログラムは、指令実行システム、装置、または素子によって使用され、またはそれらとの結合によって使用される。本発明において、コンピュータ可読信号媒体は、コンピュータが読み取り可能なプログラムコードを担持し、ベースバンドに備えたり、または搬送波の一部として伝播されるデータ信号に備えることができる。このように伝播されたデータ信号は、電磁信号、光信号、またはこれらの任意の適切な組み合わせを備えるがこれらに限定されない様々な形態をとることができる。コンピュータ可読信号媒体は、またコンピュータ可読記憶媒体以外のいずれのコンピュータ可読媒体であることができ、当該コンピュータ可読媒体は、指令実行システム、装置または素子によって使用され、またはそれらとの結合によって使用されるプログラムを送信、伝播、または移送することができる。コンピュータ可読媒体に含まれるプログラムコードは、無線、ワイヤ、光ファイバケーブル、RFなど、またはこれらの任意の適切な組み合わせを備えるがこれらに限定されないいずれの適切な媒体によって伝送されることができる。 It should be explained that the computer-readable medium described in the present invention can be a computer-readable signal medium, a computer-readable storage medium, or any combination of both. The computer-readable storage medium can be, but is not limited to, for example, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, devices, or devices, or any combination thereof. More specific examples of computer-readable storage media are electrical connections with one or more wires, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only. It includes, but is not limited to, a memory (EPROM or flash memory), an optical fiber, a portable compact disk read-only memory (CD-ROM), an optical storage element, a magnetic storage element, or any combination thereof. In the present invention, a computer-readable storage medium can be any tangible medium that comprises or stores a program, which is used by, or coupled with, a command execution system, device, or element. used. In the present invention, a computer-readable signal medium can carry a computer-readable program code and be provided for a baseband or a data signal propagated as part of a carrier wave. The data signal thus propagated can take various forms including, but not limited to, electromagnetic signals, optical signals, or any suitable combination thereof. The computer-readable signal medium can also be any computer-readable medium other than a computer-readable storage medium, which is used by, or coupled with, a command execution system, device or element. The program can be transmitted, propagated, or transported. The program code contained on a computer-readable medium can be transmitted by any suitable medium including, but not limited to, wireless, wire, fiber optic cable, RF, or any suitable combination thereof.
本発明の操作を実行するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語、またはその組み合わせで作成することができ、前記プログラミング言語は、Java(登録商標)、Smalltalk、C++、及び従来のものなどのオブジェクト指向プログラミング言語を備え、また「C」言語または類似なプログラミング言語などの従来の手続き型プログラミング言語も備える。プログラムコードは、完全にユーザーコンピュータで実行されたり、部分的にユーザーコンピュータで実行されたり、1つの独立的なソフトウェアパッケージとして実行されたり、部分的にユーザーコンピュータで部分的にリモートコンピュータで実行されたり、または完全にリモートコンピュータまたはサーバで実行されることができる。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を備える任意の種類のネットワークを介して、ユーザーのコンピュータに接続することができ、または外部コンピュータに接続(例えば、インターネットサービスプロバイダを使用して、インターネットを介して接続)することができる。 Computer program code for performing the operations of the present invention can be created in one or more programming languages, or a combination thereof, the programming languages being Java®, Smalltalk, C ++, and conventional programming languages. It includes object-oriented programming languages such as those, as well as traditional procedural programming languages such as the "C" language or similar programming languages. The program code may be executed entirely on the user computer, partially on the user computer, as a single independent software package, or partially on the user computer and partially on the remote computer. , Or can be run entirely on a remote computer or server. In the case of a remote computer, the remote computer can connect to the user's computer or connect to an external computer (eg,) via any type of network that includes a local area network (LAN) or wide area network (WAN). , Can be connected via the Internet using an Internet service provider).
図面におけるフローチャート及びブロック図は、本発明の様々な実施例によるシステム、方法及びコンピュータプログラム製品の実現可能な実施形態の構造、機能、及び操作を示す。これに関して、フローチャートまたはブロック図における各ブロックは、1つのモジュール、プログラムセグメントまたはコードの一部を表すことができ、当該モジュール、プログラムセグメントまたはコードの一部は、規定された論理機能を実現するための1つまたは複数の実行可能な指令を備える。また、代替実施形態において、ブロックに示されている機能は、図面に示されているものとは異なる順序で発生することもあることに留意されたい。例えば、連続して表示される2つのブロックは、実際には実質的に並列に実行されてもよく、それらは含まれる機能に応じて逆の順序で実行されてもよい。また、ブロック図および/またはフローチャートの各ブロック、及びブロック図および/またはフローチャートのブロックの組み合わせは、規定された機能または操作を実行する専用のハードウェアベースのシステムで実現され、または専用のハードウェアとコンピュータ指令の組み合わせによって実現されることができることにも留意されたい。 Flow charts and block diagrams in the drawings show the structure, function, and operation of feasible embodiments of systems, methods, and computer program products according to various embodiments of the present invention. In this regard, each block in a flowchart or block diagram can represent a module, program segment or part of code, the module, program segment or part of code to achieve a defined logical function. It comprises one or more executable commands of. It should also be noted that in alternative embodiments, the functions shown in the blocks may occur in a different order than those shown in the drawings. For example, two blocks displayed in succession may actually be executed substantially in parallel, or they may be executed in reverse order depending on the functions included. Also, each block of the block diagram and / or flowchart, and the combination of blocks of the block diagram and / or flowchart, is implemented in a dedicated hardware-based system that performs a specified function or operation, or dedicated hardware. It should also be noted that this can be achieved by a combination of and computer directives.
本発明の実施例で言及されたユニットは、ソフトウェアによって実現されることができ、またはハードウェアによって実現されることもできる。記述されたユニットは、また、例えば、取得ユニット、解析ユニット、キーフレーム確定ユニット及び応答時間確定ユニットを備えるプロセッサーとしてプロセッサーに設置されることができる。ここで、これらのユニットの名称は、当該ユニット自体を限定するものではない場合があり、例えば、取得ユニットは、また、「目標操作指令を検出対象設備が実行する時にスクリーンに表示される予め撮影されたイメージの映像を取得するユニット」と記述されることもできる。 The units referred to in the embodiments of the present invention can be implemented by software or can also be implemented by hardware. The described units can also be installed in the processor as, for example, a processor comprising an acquisition unit, an analysis unit, a keyframe determination unit and a response time determination unit. Here, the names of these units may not be limited to the unit itself. For example, the acquisition unit may also be "preliminarily photographed displayed on the screen when the target operation command is executed by the detection target equipment. It can also be described as "a unit that acquires the image of the image".
他の態様として、本発明は、コンピュータ可読媒体をさらに提供し、当該コンピュータ可読媒体は、前記実施例で説明したサーバに含まれることができ、または別途に存在し、当該サーバにインストールされていないことができる。前記コンピュータ可読媒体は、1つまたは複数のプログラムが担持されることができ、前記1つまたは複数のプログラムが当該サーバによって実行される場合、当該サーバは、目標操作指令を検出対象設備が実行する時にスクリーンに表示される予め撮影されたイメージの映像を取得し、映像をフレームシーケンスに解析し、フレームシーケンスから目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含む開始フレームと、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む終了フレームとを決定し、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。 In another aspect, the invention further provides a computer-readable medium, which can be included in or separately exists in the server described in the embodiment and is not installed on the server. be able to. The computer-readable medium can carry one or more programs, and when the one or more programs are executed by the server, the server executes the target operation command by the detection target equipment. The start frame including the image displayed on the screen when the target equipment starts executing the target operation command from the frame sequence by acquiring the image of the pre-captured image that is sometimes displayed on the screen and analyzing the image into a frame sequence. When the detection target equipment executes the target operation command based on the start frame and the end frame after determining the end frame including the image displayed on the screen when the detection target equipment completes the execution of the target operation command. Determine the response time of.
以上の説明は、本発明の好ましい実施例及び応用された技術の原理の説明にすぎない。本発明で言及される本発明の範囲は、前記の技術的特徴の特定の組み合わせに限定されず、同時に、前記の発明構想から逸脱することなく、前記の技術的特徴または均等な特徴を任意に組み合わせて形成された。例えば、前記の特徴と本発明において開示されるがこれに限定されない技術的特徴と類似した機能を有する技術的特徴が互いに交換されて形成される他の技術的解決手段を網羅すべきであることを当業者は理解すべきである。
The above description is merely a description of the preferred embodiments of the present invention and the principles of the applied technique. The scope of the present invention referred to in the present invention is not limited to a specific combination of the above technical features, and at the same time, optionally the above technical features or equivalent features without departing from the above concept of the invention. Formed in combination. For example, other technical solutions formed by exchanging the above-mentioned features and technical features having functions similar to those disclosed in the present invention but not limited to the above-mentioned features should be covered. Those skilled in the art should understand.
Claims (11)
目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することと、
前記映像をフレームシーケンスに解析することと、
前記フレームシーケンスから開始フレーム及び終了フレームを確定することと、
前記開始フレーム及び前記終了フレームに基づいて、前記目標操作指令を前記検出対象設備が実行する時の応答時間を確定することと、を備え、
前記開始フレームは、前記検出対象設備が前記目標操作指令を実行し始める時にスクリーンに表示されるイメージを含むフレームであり、前記終了フレームは、前記検出対象設備が前記目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームであり、
前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することの前に、前記方法は、
前記目標操作指令を前記検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信することと、
前記目標操作指令の実行を前記検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令を前記クライアントに送信することと、
前記クライアントから送信された目標映像を受信し、前記目標映像を、前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定することと、をさらに備え、
前記目標映像は、前記クライアントが前記開始指令の受信に応答して録画を開始し、前記停止指令の受信に応答して録画を停止して取得された映像である、
応答時間を確定するための、コンピュータにより実施される方法。 A computer-implemented method for determining response time,
Acquiring a pre-captured image that is displayed on the screen when the target equipment executes the target operation command.
Analyzing the video into a frame sequence and
Determining the start frame and end frame from the frame sequence
Based on the start frame and the end frame, the response time when the detection target equipment executes the target operation command is determined.
The start frame is a frame including an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame completes the execution of the target operation command by the detection target equipment. sometimes Ri Oh in the frame containing the image to be displayed on the screen,
Prior to acquiring an image of a pre-captured image that is displayed on the screen when the target operation command is executed by the detection target equipment, the method is:
In response to the reception of the signal indicating that the detection target equipment starts executing the target operation command, the start command for indicating the start of video recording is transmitted to the client.
In response to the execution of the target operation command in response to the reception of a signal indicating that the equipment to be detected has been completed, a stop command for indicating the stop of video recording is transmitted to the client.
Further, the target image transmitted from the client is received, and the target image is determined as an image of an image displayed on the screen when the target operation command is executed by the detection target equipment.
The target video is a video acquired by the client starting recording in response to the reception of the start command and stopping recording in response to the reception of the stop command.
A computer-implemented method for determining response time.
請求項1に記載の応答時間を確定するための、コンピュータにより実施される方法。 It is further characterized by further comprising outputting presentation information for indicating that the response time is larger than the target threshold value in response to the determination that the response time is larger than the target threshold value.
A method performed by a computer for determining the response time according to claim 1.
過去の応答時間の集合を取得することと、
前記過去の応答時間の集合に基づいて前記目標閾値を決定することと、によって取得されることを特徴とする、
請求項2に記載の応答時間を確定するための、コンピュータにより実施される方法。 The target threshold is
To get a set of past response times,
The target threshold is determined based on the set of past response times, and is obtained by.
A method performed by a computer for determining the response time according to claim 2.
前記フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、前記隣接した2つのフレーム中の1つを前記開始フレームまたは前記終了フレームとして確定することを備えることを特徴とする
請求項1乃至3のいずれか一項に記載の応答時間を確定するための、コンピュータにより実施される方法。 Determining the start frame and the end frame from the frame sequence
In response to the determination that the similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold, one of the two adjacent frames is determined as the start frame or the end frame. A method implemented by a computer for determining the response time according to any one of claims 1 to 3, wherein the response time is determined.
目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成された取得ユニットと、
前記映像をフレームシーケンスに解析するように構成された解析ユニットと、
前記フレームシーケンスから開始フレーム及び終了フレームを確定するように構成されたキーフレーム確定ユニットと、
前記開始フレーム及び前記終了フレームに基づいて、前記目標操作指令を前記検出対象設備が実行する時の応答時間を確定するように構成された応答時間確定ユニットと、を備え、
前記開始フレームは、前記検出対象設備が前記目標操作指令を実行し始める時にスクリーンに表示されるイメージを含むフレームであり、前記終了フレームは、前記検出対象設備が前記目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームであり、
前記装置は、
前記目標操作指令を前記検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成された開始指令送信ユニットと、
前記目標操作指令の実行を前記検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令を前記クライアントに送信するように構成された停止指令送信ユニットと、
前記クライアントから送信された目標映像を受信し、前記目標映像を、前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定するように構成された受信ユニットと、をさらに備え、
前記目標映像は、前記クライアントが前記開始指令の受信に応答して録画を開始し、前記停止指令の受信に応答して録画を停止して取得された映像である、
応答時間を確定するための装置。 A device for determining the response time
An acquisition unit configured to acquire an image of a pre-captured image displayed on the screen when the target equipment executes a target operation command, and an acquisition unit.
An analysis unit configured to analyze the video into a frame sequence,
A keyframe confirmation unit configured to determine the start frame and end frame from the frame sequence,
A response time determination unit configured to determine a response time when the detection target equipment executes the target operation command based on the start frame and the end frame is provided.
The start frame is a frame including an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame completes the execution of the target operation command by the detection target equipment. sometimes Ri Oh in the frame containing the image to be displayed on the screen,
The device is
A start command transmission unit configured to transmit a start command to indicate the start of video recording in response to the reception of a signal indicating that the detection target equipment starts executing the target operation command. When,
A stop command configured to send a stop command to the client to indicate that video recording has stopped in response to receiving a signal to indicate that the target operation command has been executed to indicate that the equipment to be detected has been completed. Sending unit and
A receiving unit configured to receive the target image transmitted from the client and determine the target image as an image image displayed on the screen when the target operation command is executed by the detection target equipment. With more
The target video is a video acquired by the client starting recording in response to the reception of the start command and stopping recording in response to the reception of the stop command.
A device for determining response time.
請求項5に記載の応答時間を確定するための装置。 It further comprises an output unit configured to output presentation information to indicate that the response time is greater than the target threshold in response to the determination that the response time is greater than the target threshold. To
The device for determining the response time according to claim 5.
過去の応答時間の集合を取得することと、
前記過去の応答時間の集合に基づいて前記目標閾値を決定することと、によって取得されることを特徴とする、
請求項6に記載の応答時間を確定するための装置。 The target threshold is
To get a set of past response times,
The target threshold is determined based on the set of past response times, and is obtained by.
The device for determining the response time according to claim 6.
前記フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、前記隣接した2つのフレーム中の1つを前記開始フレームまたは前記終了フレームとして確定するように構成されたことを特徴とする
請求項5乃至7のいずれか一項に記載の応答時間を確定するための装置。 The keyframe confirmation unit further
In response to the determination that the similarity of two adjacent frames in the frame sequence is greater than a predetermined threshold, one of the two adjacent frames is determined as the start frame or the end frame. The device for determining the response time according to any one of claims 5 to 7, wherein the response time is determined.
1つまたは複数のプログラムが格納されている記憶装置とを備えるサーバであって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサーによって実行されると、前記1つまたは複数のプロセッサーに請求項1乃至4のいずれか一項に記載の方法を実現させる、サーバ。 With one or more processors
A server with a storage device that stores one or more programs.
A server that, when the one or more programs are executed by the one or more processors, causes the one or more processors to implement the method according to any one of claims 1 to 4.
前記プログラムがプロセッサーによって実行されると、請求項1乃至4のいずれか一項に記載の方法が実現されるコンピュータ可読記憶媒体。 A computer-readable storage medium that stores computer programs
A computer-readable storage medium in which the method according to any one of claims 1 to 4 is realized when the program is executed by a processor.
前記コンピュータプログラムがプロセッサーにより実行されると、請求項1乃至4のいずれか一項に記載の方法を実現させるコンピュータプログラム。
It ’s a computer program,
A computer program that realizes the method according to any one of claims 1 to 4 , when the computer program is executed by a processor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810962004.6A CN108900776B (en) | 2018-08-22 | 2018-08-22 | Method and apparatus for determining response time |
CN201810962004.6 | 2018-08-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030811A JP2020030811A (en) | 2020-02-27 |
JP6898968B2 true JP6898968B2 (en) | 2021-07-07 |
Family
ID=64358303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019127386A Active JP6898968B2 (en) | 2018-08-22 | 2019-07-09 | Methods and devices for determining response time |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6898968B2 (en) |
KR (1) | KR102158557B1 (en) |
CN (1) | CN108900776B (en) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111245559B (en) * | 2018-11-29 | 2023-04-18 | 阿里巴巴集团控股有限公司 | Information determination method, information judgment method and device and computing equipment |
CN111324521B (en) * | 2018-12-13 | 2023-03-28 | 花瓣云科技有限公司 | Graphical interface performance test method and test equipment |
CN111949509B (en) * | 2019-05-17 | 2023-08-15 | 百度在线网络技术(北京)有限公司 | Response time testing method, device and equipment of application software and storage medium |
CN110209581A (en) * | 2019-05-31 | 2019-09-06 | 北京字节跳动网络技术有限公司 | Trigger action analysis method and device based on application program |
CN110442499B (en) * | 2019-07-10 | 2023-08-04 | 创新先进技术有限公司 | Method and device for testing and improving page response performance and terminal equipment |
CN111405218A (en) * | 2020-03-26 | 2020-07-10 | 深圳市微测检测有限公司 | Touch screen time delay detection method, system, device, equipment and storage medium |
CN111858318B (en) * | 2020-06-30 | 2024-04-02 | 北京百度网讯科技有限公司 | Response time testing method, device, equipment and computer storage medium |
CN111798358A (en) * | 2020-07-01 | 2020-10-20 | 北京梧桐车联科技有限责任公司 | Method and device for determining route calculation time, electronic equipment and readable storage medium |
CN112055237B (en) * | 2020-08-31 | 2022-07-19 | 北京爱奇艺科技有限公司 | Method, system, apparatus, device and storage medium for determining screen-to-screen delay |
CN112203042B (en) * | 2020-09-10 | 2022-08-05 | 福建升腾资讯有限公司 | Cloud desktop operation response time testing method, system, equipment and medium |
CN112218155A (en) * | 2020-09-24 | 2021-01-12 | 北京达佳互联信息技术有限公司 | Automatic detection method and device for switching time consumption and electronic equipment |
CN112437289B (en) * | 2020-09-28 | 2023-03-10 | 上海艾策通讯科技股份有限公司 | Switching time delay obtaining method |
CN112203150B (en) * | 2020-09-30 | 2022-03-11 | 腾讯科技(深圳)有限公司 | Time-consuming acquisition method, device, equipment and computer-readable storage medium |
CN113032228B (en) * | 2020-11-26 | 2023-09-05 | 北京字节跳动网络技术有限公司 | Method, device, equipment and storage medium for determining time consumption of operation response |
CN113225624A (en) * | 2021-04-08 | 2021-08-06 | 腾讯科技(深圳)有限公司 | Time-consuming determination method and device for voice recognition |
CN113312967A (en) * | 2021-04-22 | 2021-08-27 | 北京搜狗科技发展有限公司 | Detection method, device and device for detection |
CN113485579A (en) * | 2021-06-30 | 2021-10-08 | 东莞市小精灵教育软件有限公司 | Finger stable frame detection method and device and computer readable storage medium |
CN113821438A (en) * | 2021-09-23 | 2021-12-21 | 统信软件技术有限公司 | Application response performance test method and system and computing equipment |
CN113986172A (en) * | 2021-10-27 | 2022-01-28 | 佛山市顺德区美的电子科技有限公司 | Electronic equipment, screen display method and device thereof and storage medium |
CN114051110B (en) * | 2021-11-08 | 2024-04-02 | 北京百度网讯科技有限公司 | Video generation method, device, electronic equipment and storage medium |
CN114827754B (en) * | 2022-02-23 | 2023-09-12 | 阿里巴巴(中国)有限公司 | Video first frame time detection method and device |
CN115695851B (en) * | 2022-12-28 | 2023-03-28 | 海马云(天津)信息技术有限公司 | End-to-end delay calculation method and device, storage medium and electronic equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8644623B2 (en) * | 2011-11-16 | 2014-02-04 | Microsoft Corporation | Measuring web page rendering time |
CN104090842A (en) * | 2014-07-15 | 2014-10-08 | 深圳市金立通信设备有限公司 | Detection method for application program running |
JP2017156817A (en) * | 2016-02-29 | 2017-09-07 | 株式会社日立製作所 | User information management system |
KR102494584B1 (en) * | 2016-08-18 | 2023-02-02 | 삼성전자주식회사 | Display apparatus and content display method thereof |
KR101874078B1 (en) * | 2016-10-05 | 2018-07-03 | 에스케이테크엑스 주식회사 | Apparatus for measuring End-to-End delay of application and method thereof |
-
2018
- 2018-08-22 CN CN201810962004.6A patent/CN108900776B/en active Active
-
2019
- 2019-07-09 JP JP2019127386A patent/JP6898968B2/en active Active
- 2019-07-11 KR KR1020190083623A patent/KR102158557B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
CN108900776B (en) | 2020-11-27 |
JP2020030811A (en) | 2020-02-27 |
KR102158557B1 (en) | 2020-09-22 |
CN108900776A (en) | 2018-11-27 |
KR20200022329A (en) | 2020-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6898968B2 (en) | Methods and devices for determining response time | |
WO2020000879A1 (en) | Image recognition method and apparatus | |
US9300520B2 (en) | Mobile network application test | |
CN108337505B (en) | Information acquisition method and device | |
CN111436005B (en) | Method and apparatus for displaying image | |
CN108235004B (en) | Video playing performance test method, device and system | |
US20190051147A1 (en) | Remote control method, apparatus, terminal device, and computer readable storage medium | |
CN112306793A (en) | Method and device for monitoring webpage | |
CN110070076B (en) | Method and device for selecting training samples | |
CN109614340A (en) | Exploitation adjustment method, device, electronic equipment and the storage medium of application program | |
CN111402220B (en) | Method and device for acquiring information | |
CN111309617A (en) | Application program control method and device, storage medium and electronic equipment | |
CN110908922A (en) | Application program testing method and device | |
CN111092767B (en) | Method and device for debugging equipment | |
US9769434B1 (en) | Remote control of a user's wearable computing device in help desk applications | |
CN110673886B (en) | Method and device for generating thermodynamic diagrams | |
CN109218338B (en) | Information processing system, method and device | |
CN116662193A (en) | Page testing method and device | |
US11121912B2 (en) | Method and apparatus for processing information | |
CN109947659B (en) | System, method and apparatus for testing applications | |
KR20180076020A (en) | Apparatus and method for application test automation | |
CN115391204A (en) | Test method and device for automatic driving service, electronic equipment and storage medium | |
CN109960659B (en) | Method and device for detecting application program | |
CN110991312A (en) | Method, apparatus, electronic device, and medium for generating detection information | |
CN108228829B (en) | Method and apparatus for generating information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190710 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |