JP2020030811A - Method and device for determining response time - Google Patents

Method and device for determining response time Download PDF

Info

Publication number
JP2020030811A
JP2020030811A JP2019127386A JP2019127386A JP2020030811A JP 2020030811 A JP2020030811 A JP 2020030811A JP 2019127386 A JP2019127386 A JP 2019127386A JP 2019127386 A JP2019127386 A JP 2019127386A JP 2020030811 A JP2020030811 A JP 2020030811A
Authority
JP
Japan
Prior art keywords
target
frame
response time
determining
operation command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019127386A
Other languages
Japanese (ja)
Other versions
JP6898968B2 (en
Inventor
ペン,イーハイ
Yihai Peng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020030811A publication Critical patent/JP2020030811A/en
Application granted granted Critical
Publication of JP6898968B2 publication Critical patent/JP6898968B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Abstract

To provide a method and a device for determining a response time.SOLUTION: The method for determining a response time includes: acquiring a picture of a previously taken image displayed in a screen when a detection target facility executes a target operation command; analyzing a frame sequence in the picture; confirming, from a frame sequence, a start frame including an image displayed in a screen when the detection target facility starts execution of the target operation command and an end frame including an image displayed in the screen when the detection target facility completes the execution of the target operation command; and confirming the response time when the detection target facility executes the target operation command, on the basis of the start frame and the end frame.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、コンピュータ技術分野に関し、具体的に、応答時間を確定するための方法及び装置に関する。   Embodiments of the present invention relate to the field of computer technology, and in particular, to a method and apparatus for determining response time.

インターネット技術の絶え間ない発展と移動端末の急速な普及により、様々なタイプのアプリケーション(App、Application)が次々と登場している。ユーザーがこれらのAppを使用する時に、動かなくなったり遅延したりする現象が頻繁に発生する。これらの問題を解決するために、Appの応答時間をテストする必要がある。現在、Appの応答時間は、通常、手動テストまたはログ分析によってテストされている。   With the continuous development of the Internet technology and the rapid spread of mobile terminals, various types of applications (Apps, Applications) are appearing one after another. When a user uses these apps, the phenomenon of getting stuck or delayed frequently occurs. In order to solve these problems, it is necessary to test the response time of the App. Currently, App response times are usually tested by manual testing or log analysis.

本発明の実施形態は、応答時間を確定するための方法及び装置を提供する。   Embodiments of the present invention provide a method and apparatus for determining response time.

第1の態様において、本発明の実施形態は、応答時間を確定するための方法を提供し、当該方法は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することと、映像をフレームシーケンスに解析することと、フレームシーケンスから開始フレーム及び終了フレームを確定することであって、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含むフレームであり、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、ことと、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することと、を備える。   In a first aspect, embodiments of the present invention provide a method for determining a response time, the method comprising displaying a pre-shot image displayed on a screen when the target facility executes a target operation command. Acquiring an image of the image, analyzing the image into a frame sequence, and determining a start frame and an end frame from the frame sequence, wherein the start frame starts executing the target operation command by the detection target equipment. A frame including an image displayed on the screen at the time, and the end frame is a frame including an image displayed on the screen when the detection target equipment has completed the execution of the target operation command, and a start frame and an end frame. And determining a response time when the target facility executes the target operation command based on the target operation command.

一部の実施形態において、当該応答時間を確定するための方法は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力することをさらに備える。   In some embodiments, the method for determining the response time comprises providing presentation information for indicating that the response time is greater than the target threshold in response to the response time being determined to be greater than the target threshold. Outputting further.

一部の実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得される。   In some embodiments, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times.

一部の実施形態において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することの前に、応答時間を確定するための方法は、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信することと、目標操作指令の実行を検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信することと、クライアントから送信された目標映像を受信し、目標映像を、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定することであって、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である、ことと、をさらに備える。   In some embodiments, the method for determining a response time prior to obtaining a video of a pre-captured image that is displayed on a screen when the target facility executes the target operation command comprises a target In response to receiving the signal indicating that the operation target equipment starts to execute the detection target equipment, transmitting a start instruction to indicate the start of video recording to the client, and executing the target operation instruction on the detection target equipment. In response to the reception of the signal indicating that the recording is completed, transmitting a stop command to the client to indicate the stop of video recording, and receiving the target video transmitted from the client, the target video, the target video The operation command is determined as the image of the image displayed on the screen when the detection target equipment executes, and the target image is determined by the client in response to receiving the start command. Te start recording, further comprising a video obtained by stop recording in response to receiving the stop command, it and, a.

一部の実施形態において、フレームシーケンスから開始フレーム及び終了フレームを確定することは、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定することを備える。   In some embodiments, determining the start frame and the end frame from the frame sequence is performed in response to determining that a similarity between two adjacent frames in the frame sequence is determined to be greater than a predetermined threshold. Comprising determining one of the two frames as a start frame or an end frame.

第2の態様において、本発明の実施形態は、応答時間を確定するための装置を提供し、当該装置は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成された取得ユニットと、映像をフレームシーケンスに解析するように構成された解析ユニットと、フレームシーケンスから開始フレーム及び終了フレームを確定するように構成されたキーフレーム確定ユニットであって、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含むフレームであり、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、キーフレーム確定ユニットと、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定するように構成された応答時間確定ユニットと、を備える。   In a second aspect, an embodiment of the present invention provides an apparatus for determining a response time, the apparatus including a pre-shot image displayed on a screen when a target operation command executes a target operation command. An acquisition unit configured to capture a video of the image; an analysis unit configured to analyze the video into a frame sequence; and a key frame determination configured to determine a start frame and an end frame from the frame sequence. The unit, wherein the start frame is a frame including an image displayed on the screen when the target device starts executing the target operation command, and the end frame is a frame when the target device completes execution of the target operation command. The key frame determination unit, which is the frame containing the image to be displayed on the screen, and the start frame Based on the fine end frame, and a response time determination unit configured to determine a response time when the target operation command is detected facility executes.

一部の実施形態において、当該応答時間を確定するための装置は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力するように構成された出力ユニットをさらに備える。   In some embodiments, the apparatus for determining the response time includes providing presentation information for indicating that the response time is greater than the target threshold in response to the response time being determined to be greater than the target threshold. The apparatus further includes an output unit configured to output.

一部の実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得される。   In some embodiments, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times.

一部の実施形態において、当該応答時間を確定するための装置は、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成された開始指令送信ユニットと、目標操作指令を検出対象設備が実行完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信するように構成された停止指令送信ユニットと、クライアントから送信された目標映像を受信し、目標映像を、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定するように構成された受信ユニットであって、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である、受信ユニットと、をさらに備える。   In some embodiments, the apparatus for determining the response time includes a signal for indicating the start of video recording in response to receiving a signal indicating that the target equipment starts to execute the target operation command. A start command transmission unit configured to transmit a start command to the client, and a signal for indicating a stop of video recording in response to receiving a signal indicating that the target equipment has completed execution of the target operation command. A stop command transmission unit configured to transmit a stop command to a client, an image displayed on a screen when a target image transmitted from the client is received, and the target image is displayed by the target device to execute the target operation command. A receiving unit configured to determine the target image as the target image, wherein the target image starts recording in response to the reception of the start command, and Of a video which is acquired by stop recording in response to receiving further comprises a receiving unit.

一部の実施形態において、キーフレーム確定ユニットは、さらに、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定するように構成される。   In some embodiments, the key frame determination unit further includes, in response to determining that a similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold, one of the two adjacent frames. One is determined as a start frame or an end frame.

第3の態様において、本発明の実施形態は、1つまたは複数のプロセッサーと、1つまたは複数のプログラムが格納されている記憶装置とを備えるサーバであって、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサーによって実行されると、前記1つまたは複数のプロセッサーに第1の態様のいずれかの実施形態に記載の方法を実現させるサーバを提供する。   In a third aspect, an embodiment of the present invention is a server including one or more processors and a storage device storing one or more programs, wherein the one or more programs are A server is provided that, when executed by the one or more processors, causes the one or more processors to implement the method according to any embodiment of the first aspect.

第4の態様において、本発明の実施形態は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、前記プログラムがプロセッサーによって実行されると、第1の態様のいずれかの実施形態に記載の方法が実現されるコンピュータ可読媒体を提供する。   In a fourth aspect, an embodiment of the present invention is a computer readable medium having stored thereon a computer program, wherein the program is executed by a processor. Provide a computer readable medium on which the method may be implemented.

本発明の実施形態によって提供される応答時間を確定するための方法及び装置は、まず映像のフレームシーケンスにおける開始フレーム及び終了フレームを確定することによって、開始フレーム及び終了フレームに基づいて応答時間を確定することができる。手動テストと比較すると、肉眼の知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。なお、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。   A method and apparatus for determining a response time provided by an embodiment of the present invention determines a response time based on a start frame and an end frame by first determining a start frame and an end frame in a frame sequence of a video. can do. Compared to a manual test, analysis can be performed with a granularity that exceeds what can be perceived by the naked eye, and the accuracy of the obtained response time can be improved. As compared with the log analysis method, the accuracy of the obtained response time can be improved by avoiding the error due to the asynchronous calculation.

本発明の他の特徴、目的及び利点は、図面を参照して非限定的な実施例に対してなされる詳細な説明によってさらに明らかになる。
本発明の一実施例が応用される例示的なシステムアーキテクチャ図である。 本発明に係る応答時間を確定するための方法の一実施例のフローチャートである。 本発明の実施例に係る応答時間を確定するための方法の1つの応用シナリオの模式図である。 本発明に係る応答時間を確定するための方法のもう1つの実施例のフローチャートである。 本発明に係る応答時間を確定するための装置の一実施例の構造の模式図である。 本発明の実施例のサーバを実現するのに適するコンピュータシステムの構造の模式図である。
Other features, objects and advantages of the present invention will become more apparent from the detailed description given to non-limiting embodiments with reference to the drawings.
FIG. 1 is an exemplary system architecture diagram to which an embodiment of the present invention is applied. 4 is a flowchart of one embodiment of a method for determining a response time according to the present invention. FIG. 4 is a schematic diagram of one application scenario of a method for determining a response time according to an embodiment of the present invention; 5 is a flowchart of another embodiment of a method for determining a response time according to the present invention. FIG. 3 is a schematic view of a structure of an embodiment of a device for determining a response time according to the present invention. 1 is a schematic diagram of a structure of a computer system suitable for realizing a server according to an embodiment of the present invention.

以下、図面と実施例を参照しながら、本願を詳細に説明する。ここで記載される具体的な実施例は、関連の発明を解釈するのみに用いられ、当該発明に対する限定ではないことは理解される。なお、説明の便宜上、図面には、関連の発明に関わる部分のみを示す。   Hereinafter, the present application will be described in detail with reference to the drawings and embodiments. It is understood that the specific embodiments described herein are used only to interpret the relevant invention and are not limiting of the invention. For convenience of explanation, the drawings show only parts related to the related invention.

なお、矛盾が生じない限り、本願における実施例及び実施例における特徴は互いに組み合わせることができるものとする。以下、図面を参照しながら、実施例を併せて本願を詳しく説明する。   Unless inconsistencies arise, the embodiments in the present application and the features in the embodiments can be combined with each other. Hereinafter, the present invention will be described in detail with reference to the drawings and embodiments.

図1は、本発明の実施例が応用される応答時間を確定するための方法または応答時間を確定するための装置の例示的なシステムアーキテクチャ図を示す。   FIG. 1 shows an exemplary system architecture diagram of a method for determining a response time or an apparatus for determining a response time to which an embodiment of the present invention is applied.

図1に示すように、システムアーキテクチャ100は、サーバ101、クライアント102、検出対象設備103及びネットワーク104、105を備えてもよい。ここで、ネットワーク104は、サーバ101とクライアント102との間で通信リンクを提供するための媒体として使用される。ネットワーク105は、サーバ101と検出対象設備103との間で通信リンクを提供するための媒体として使用される。ネットワーク104、105は、有線、無線通信リンクまたは光ファイバケーブルなどの様々な種類の接続を備えてもよい。   As shown in FIG. 1, the system architecture 100 may include a server 101, a client 102, a detection target facility 103, and networks 104 and 105. Here, the network 104 is used as a medium for providing a communication link between the server 101 and the client 102. The network 105 is used as a medium for providing a communication link between the server 101 and the equipment 103 to be detected. Networks 104, 105 may comprise various types of connections, such as wired, wireless communication links or fiber optic cables.

クライアント102は、ネットワーク104を介してサーバ101と通信して、メッセージなどを送受信する。検出対象設備103は、ネットワーク105を介してサーバ101と通信して、メッセージなどを送受信する。   The client 102 communicates with the server 101 via the network 104 to send and receive messages and the like. The detection target equipment 103 communicates with the server 101 via the network 105 to transmit and receive messages and the like.

サーバ101は、クライアント102の撮影した映像に対して解析などの処理を行うことができる映像処理サーバのような、様々なサービスを提供するサーバであってもよい。映像処理サーバは、受信された映像に対して解析などの処理を行って、処理結果(例えば、応答時間)を取得することができる。   The server 101 may be a server that provides various services, such as a video processing server that can perform processing such as analysis on video captured by the client 102. The video processing server can perform processing such as analysis on the received video and acquire a processing result (for example, a response time).

検出対象設備103は、ハードウェアであっても、ソフトウェアであってもよい。検出対象設備103がハードウェアである場合、表示画面を有し、且つアプリケーションのインストールをサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップポータブルコンピュータ及びデスクトップコンピュータなどを含むがこれらに限定されない。検出対象設備103がソフトウェアである場合、前記に列挙された電子機器にインストールされることができる。複数のソフトウェアまたはソフトウェアモジュールとして、あるいは単一のソフトウェアまたはソフトウェアモジュールとして実現されることができる。ここでは具体的に限定しない。   The detection target facility 103 may be hardware or software. When the detection target equipment 103 is hardware, it may be a variety of electronic devices having a display screen and supporting installation of an application, including a smartphone, a tablet computer, a laptop portable computer, and a desktop computer. It is not limited to these. When the detection target equipment 103 is software, it can be installed in the electronic devices listed above. It can be implemented as multiple software or software modules or as a single software or software module. Here, it is not specifically limited.

なお、本発明の実施例によって提供される応答時間を確定するための方法は、一般にサーバ101によって実行され、対応して、応答時間を確定するための装置は、一般にサーバ101に設置されている。   It should be noted that the method for determining the response time provided by the embodiment of the present invention is generally performed by the server 101, and the apparatus for determining the response time is generally installed in the server 101. .

サーバ101、クライアント102は、ハードウェアであっても、ソフトウェアであってもよい。サーバ101、クライアント102がハードウェアである場合、複数の設備から構成された分散型設備クラスタで実現されることもでき、単一の設備で実現されることもできる。サーバ101、クライアント102がソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュールで実現されることもでき、単一のソフトウェアまたはソフトウェアモジュールで実現されることもでき、ここでは具体的に限定しない。   The server 101 and the client 102 may be hardware or software. When the server 101 and the client 102 are hardware, the server 101 and the client 102 can be implemented by a distributed facility cluster including a plurality of facilities, or can be implemented by a single facility. When the server 101 and the client 102 are software, they may be realized by a plurality of software or software modules, or may be realized by a single software or software module, and are not specifically limited here.

図1におけるサーバ、クライアント、検出対象設備及びネットワークの数は、単なる例示であることを理解しなければならない。実現の需要に応じて、任意の数のサーバ、クライアント、検出対象設備及びネットワークを有してもよい。   It should be understood that the numbers of servers, clients, equipment to be detected, and networks in FIG. 1 are merely examples. It may have any number of servers, clients, equipment to be detected and networks, depending on the demands of realization.

続いて、図2を参照すると、本発明に係る応答時間を確定するための方法の一実施例のフロー200である。   2, a flow 200 of one embodiment of a method for determining a response time according to the present invention.

ステップ201において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得する。   In step 201, a video of a previously captured image displayed on a screen when a target operation instruction executes a target operation command is acquired.

本実施例において、応答時間を確定するための方法の実行主体(例えば、図1に示すサーバ101)は、通信接続されたクライアント(例えば、図1に示すクライアント102)から、検出対象設備(例えば、図1に示す検出対象設備103)が目標操作指令を実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することができる。ここで、操作指令は、コンピュータにある操作を実行させるように指示するための指令であってもよい。実際には、操作指令は、様々な既存のコンピュータ言語(例えば、機械言語、アセンブリ言語、高級言語)によって表現されることができる。目標操作指令は、技術者によって入力された操作指令であってもよく、ユーザーがある操作を行うことによってトリガされた指令であってもよい。   In the present embodiment, the entity that executes the method for determining the response time (for example, the server 101 shown in FIG. 1) sends a communication-connected client (for example, the client 102 shown in FIG. 1) to the equipment to be detected (for example, When the detection target equipment 103 shown in FIG. 1 executes the target operation command, it is possible to acquire an image of a previously captured image displayed on the screen. Here, the operation command may be a command for instructing the computer to execute a certain operation. In practice, the operation commands can be expressed in various existing computer languages (eg, machine language, assembly language, high-level language). The target operation command may be an operation command input by a technician or a command triggered by performing a certain operation by a user.

検出対象設備が目標操作指令を実行する時に、対応するイメージが検出対象設備のディスプレイに表示される。一例として、検出対象設備が目標操作指令を実行する前に、技術者は、クライアントの撮影機能をオンにして、検出対象設備のディスプレイに揃えて撮影を開始することができる。検出対象設備が目標操作指令の実行を完成した後、撮影を停止することができる。これにより、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像を取得することができる。他の一例として、検出対象設備にインストールされたスクリーンレコーディング機能付きアプリケーションで撮影を完了することもできる。これにより、目標操作指令を検出対象設備が実行する時にスクリーンに表示されるイメージの映像を取得することもできる。   When the detection target equipment executes the target operation command, a corresponding image is displayed on the display of the detection target equipment. As an example, before the detection target equipment executes the target operation command, the technician can turn on the shooting function of the client and start shooting in alignment with the display of the detection target equipment. After the detection target equipment has completed the execution of the target operation command, the photographing can be stopped. Thereby, it is possible to acquire the video of the image displayed on the screen when the target operation command executes the target operation command. As another example, shooting can be completed by an application with a screen recording function installed in the detection target facility. Accordingly, it is also possible to acquire a video of an image displayed on the screen when the detection target equipment executes the target operation command.

なお、前記検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像は、前記実行主体にローカルで格納されることもできる。この時、前記実行主体は、検出対象設備が行目標操作指令を実行する時にスクリーンに表示されるイメージの映像を、直接にローカルで取得することができる。   The image of the image displayed on the screen when the detection target equipment executes the target operation command may be stored locally in the execution subject. At this time, the execution subject can directly and locally acquire the image of the image displayed on the screen when the detection target equipment executes the line target operation command.

ステップ202において、映像をフレームシーケンスに解析する。   At step 202, the video is analyzed into a frame sequence.

本実施例において、前記実行主体は、様々な方法によって、ステップ201で取得した映像をフレームシーケンスに解析することができる。実際に、映像は、複数の静止イメージからなり、肉眼には視覚的な一時停止現象があるため、1秒当たりに表示されるフレーム数が一定の値を超えると、肉眼では連続した映像が観察される。従って、様々な既存の映像処理ソフトウェアによって、映像をフレームシーケンスに復元することができる。実際に、映像のフレームレートは、1秒当たりに表示されるフレームの数を表示することができる。選択的に、映像のフレームレート(例えば、240fpsであってもよい)を向上させることによって、フレームシーケンスにおけるイメージの数を増加することができる。これにより、後続の処理が容易になる。   In the present embodiment, the execution subject can analyze the video acquired in step 201 into a frame sequence by various methods. Actually, an image consists of a plurality of still images, and there is a visual pause phenomenon to the naked eye, so if the number of frames displayed per second exceeds a certain value, continuous images will be observed by the naked eye. Is done. Therefore, the video can be restored to the frame sequence by various existing video processing software. In fact, the frame rate of the video can indicate the number of frames displayed per second. Optionally, the number of images in the frame sequence can be increased by increasing the frame rate of the video (which may be, for example, 240 fps). This facilitates subsequent processing.

ステップ203において、フレームシーケンスから開始フレーム及び終了フレームを確定する。   In step 203, a start frame and an end frame are determined from the frame sequence.

本実施例において、前記実行主体は、様々な方法によって開始フレーム及び終了フレームを確定することができる。ここで、開始フレームは、検出対象設備が目標操作指令を実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む。   In this embodiment, the execution subject can determine the start frame and the end frame by various methods. Here, the start frame includes an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame is displayed on the screen when the detection target equipment completes execution of the target operation command. Contains images.

一例として、前記実行主体は、以下の方法によって開始フレーム及び終了フレームを確定することができる。   For example, the execution subject may determine the start frame and the end frame by the following method.

第1のステップにおいて、イメージにおけるノイズ情報を減少し、後続の処理が容易になるように、フレームシーケンスにおける各イメージに対して2値化処理を行う。   In a first step, a binarization process is performed on each image in the frame sequence to reduce noise information in the images and facilitate subsequent processing.

第2のステップにおいて、2値化処理されたフレームシーケンスにおける各イメージに対して、各イメージ中の連結体(Connected)を決定する。これにより、各イメージに表示される複数の対象に対する区別を実現し、後続の処理が容易になる。   In the second step, for each image in the binarized frame sequence, a connected body (Connected) in each image is determined. This realizes distinction for a plurality of objects displayed in each image, and facilitates subsequent processing.

第3のステップにおいて、第2のステップの処理を経たフレームシーケンスにおけるイメージに対して、各組の隣接したフレームの間の類似度を計算することができる。これを基に、類似度の小さいものから大きいものの順序で、2組の隣接したフレームを選択する。選択された2組の隣接したフレームの時間軸での位置に応じて、時間的に早い1組の隣接したフレームを第1隣接フレームとして決定し、時間的に遅い1組の隣接フレームを第2隣接フレームとして決定することができる。さらに、一例として、第1隣接フレームにおける2つのフレームに対して、この2つのフレーム中の時間的に早い1つのフレームを開始フレームとして決定することができる。第2隣接フレームにおける2つのフレームに対して、この2つのフレーム中の時間的に早い1つのフレームを終了フレームとして決定することができる。   In a third step, the similarity between each set of adjacent frames can be calculated for the images in the frame sequence that have undergone the processing of the second step. Based on this, two sets of adjacent frames are selected in order from the one with the smallest similarity to the one with the largest similarity. According to the position on the time axis of the selected two sets of adjacent frames, one set of adjacent frames that is earlier in time is determined as the first adjacent frame, and one set of adjacent frames that is later in time is determined as the second adjacent frame. It can be determined as an adjacent frame. Further, as an example, for two frames in the first adjacent frame, one temporally earlier frame of the two frames can be determined as a start frame. For two frames in the second adjacent frame, one temporally earlier frame of the two frames can be determined as the end frame.

本実施例の一部の選択的な実施形態において、フレームシーケンスから開始フレーム及び終了フレームを確定することは、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレームにおける1つのフレームを開始フレームまたは終了フレームとして確定することを備える。   In some optional embodiments of the present embodiment, determining the start frame and the end frame from the frame sequence includes determining that a similarity between two adjacent frames in the frame sequence is determined to be greater than a predetermined threshold. And determining one of the two adjacent frames as a start frame or an end frame.

ステップ204において、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。   In step 204, based on the start frame and the end frame, a response time when the target device executes the target operation command is determined.

本実施例において、前記実行主体は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することができる。実際には、映像に時間軸が含まれているので、映像中の各フレームは、時間軸上の1つの時点に対応する。従って、開始フレーム及び終了フレームの時間軸上に対応される2つの時点を確定することができる。その後、この2つの時点の間の差を、目標操作指令を検出対象設備が実行する時の応答時間として確定することができる。   In this embodiment, the execution subject can determine the response time when the target device executes the target operation command based on the start frame and the end frame. Actually, since the video includes a time axis, each frame in the video corresponds to one time point on the time axis. Accordingly, two time points corresponding to the time axis of the start frame and the end frame can be determined. Thereafter, the difference between the two times can be determined as the response time when the target facility executes the target operation command.

本実施例の一部の選択的な実施形態において、当該応答時間を確定するための方法は、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力することをさらに備えてもよい。   In some optional embodiments of the present embodiment, the method for determining the response time includes determining that the response time is greater than the target threshold in response to the response time being determined to be greater than the target threshold. May be further provided to output presentation information for indicating

本実施例の一部の選択的な実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することによって取得されたものである。   In some optional embodiments of this embodiment, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times. It is.

続いて、図3を参照すると、図3は、本実施例に係る応答時間を確定するための方法の1つの応用シナリオの模式図である。図3の応用シナリオにおいて、応答時間を確定するための方法の実行主体は、サーバ301であってもよい。検出対象設備は、タブレットコンピュータ302であってもよい。その中にはインスタントメッセージングアプリケーションがインストールされている。図面では、当該インスタントメッセージングアプリケーションのログイン画面が表示されている。サーバ301は、ブルートゥース(登録商標)によってスマートフォン300に接続される。サーバ301は、データ線を介してタブレットコンピュータ302に接続される。スマートフォン300は、タブレットコンピュータ302がログイン指令を実行する時にスクリーンに表示されるイメージを予め撮影することで、ログイン指令をタブレットコンピュータ302が実行する時にスクリーンに表示されるイメージの映像を取得することができる。その後、サーバ301は、スマートフォン300から前記映像3011を取得することができる。その後、映像をフレームシーケンス3012に解析することができる。これを基に、フレームシーケンス3012における隣接するイメージの類似度を計算することにより、フレームシーケンス3012から開始フレーム3013及び終了フレーム3014を確定する。開始フレーム3013及び終了フレーム3014の時間軸に対応される2つの時点の差に基づいて、前記インスタントメッセージングアプリケーションのログイン操作指令をタブレットコンピュータ302が実行する時の応答時間3015を取得する。   Next, referring to FIG. 3, FIG. 3 is a schematic diagram of one application scenario of the method for determining the response time according to the present embodiment. In the application scenario of FIG. 3, the server 301 may perform the method for determining the response time. The equipment to be detected may be the tablet computer 302. It has an instant messaging application installed. In the drawing, a login screen of the instant messaging application is displayed. The server 301 is connected to the smartphone 300 by Bluetooth (registered trademark). The server 301 is connected to the tablet computer 302 via a data line. The smartphone 300 can capture an image of the image displayed on the screen when the tablet computer 302 executes the login command by previously capturing an image displayed on the screen when the tablet computer 302 executes the login command. it can. After that, the server 301 can acquire the video 3011 from the smartphone 300. Thereafter, the video can be analyzed into a frame sequence 3012. Based on this, the start frame 3013 and the end frame 3014 are determined from the frame sequence 3012 by calculating the similarity between adjacent images in the frame sequence 3012. A response time 3015 when the tablet computer 302 executes the login operation command of the instant messaging application is acquired based on a difference between two time points corresponding to the time axis of the start frame 3013 and the end frame 3014.

本発明の前記実施例により提供される応答時間を確定するための方法は、まず、映像をフレームシーケンスに解析して、開始フレーム及び終了フレームを確定することができる。これを基に、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。手動テストと比較すると、肉眼が知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。さらに、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。   The method for determining a response time provided by the embodiment of the present invention may first analyze a video into a frame sequence to determine a start frame and an end frame. Based on this, based on the start frame and the end frame, the response time when the target operation command executes the target operation command is determined. Compared to the manual test, the analysis can be performed at a granularity exceeding that which can be perceived by the naked eye, and the accuracy of the obtained response time can be improved. Further, as compared with the log analysis method, the accuracy of the obtained response time can be improved by avoiding the error due to the asynchronous operation.

さらに図4に、応答時間を確定するための方法のまた1つの実施例のフロー400を示す。当該応答時間を確定するための方法のフロー400は、以下のステップを含む。   FIG. 4 further illustrates a flow 400 of another embodiment of a method for determining response time. The flow 400 of the method for determining the response time includes the following steps.

ステップ401において、目標操作指令を検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信する。   In step 401, in response to receiving a signal indicating that the detection target equipment starts to execute the target operation instruction, a start instruction for indicating the start of video recording is transmitted to the client.

本実施例において、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信したことに応答して、応答時間を確定するための方法の実行主体(例えば、図1に示すサーバ101)は、クライアント(例えば、図1に示すクライアント102)に、映像の録画開始を示すための開始指令を送信することができる。ここで、目標操作指令を検出対象設備が実行し始めることを示すための信号は、検出対象設備によって前記実行主体に送信されたものであってもよい。   In the present embodiment, in response to receiving a signal indicating that the target operation command starts to be executed by the detection target equipment, the subject of execution of the method for determining the response time (for example, the server shown in FIG. 1) 101) can transmit a start command for indicating the start of video recording to a client (for example, the client 102 shown in FIG. 1). Here, the signal for indicating that the detection target equipment starts to execute the target operation command may be transmitted by the detection target equipment to the execution subject.

実際に、技術者は、検出対象設備をテストするためのテストケースを予め作成することができる。1つのテストケースは、ユーザーの1つまたは複数の操作に対応することができる。例えば、ログインテストケースは、ユーザーのログイン操作に対応することができる。更新テストケースは、ユーザーの更新操作に対応することができる。予め作成されたテストケースは、前記実行主体ローカルに格納されることができる。   In fact, the technician can create a test case for testing the detection target equipment in advance. One test case may correspond to one or more operations of a user. For example, a login test case can correspond to a user's login operation. The update test case can respond to a user update operation. The test case created in advance can be stored locally in the execution subject.

例えば、ログイン指令(ユーザーログイン操作によってトリガされた指令)をテスト対象設備(検出対象設備)が実行する時の応答時間をテストする必要がある場合、前記実行主体は、ログインテストケースをテスト対象設備に送信することができる。これによって、テスト対象設備は、ログインテストケースを実行することで、ユーザーがテスト対象設備でログイン操作をすることと同じ効果を達成することができる。ログインテストケースの開始に応答して、テスト対象設備は、目標操作指令を検出対象設備が実行し始めることを示すための信号を前記実行主体に送信することができる。例えば、1つの中断信号であってもよい。これによって、前記実行主体は、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信することができる。これを基に、前記実行主体は、映像の録画開始を示すための開始指令をクライアントに送信することができる。   For example, when it is necessary to test a response time when a test target facility (detected facility) executes a login command (a command triggered by a user log-in operation), the execution subject converts the login test case into a test target facility. Can be sent to By executing the login test case, the test target facility can achieve the same effect as a user performing a login operation at the test target facility. In response to the start of the login test case, the test target equipment can send a signal to the execution subject to indicate that the detection target equipment starts executing the target operation command. For example, one interruption signal may be used. Accordingly, the execution subject can receive a signal indicating that the target facility starts to execute the target operation command. Based on this, the execution subject can transmit a start command for indicating the start of video recording to the client.

ステップ402において、目標操作指令を検出対象設備が実行完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令をクライアントに送信する。   In step 402, in response to receiving a signal indicating that the target equipment has completed execution of the target operation command, a stop command indicating stop of video recording is transmitted to the client.

本実施例において、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信したことに応答して、前記実行主体は、映像の録画停止を示すための停止指令をクライアントに送信することができる。   In the present embodiment, in response to receiving a signal indicating that the target equipment has completed execution of the target operation command, the execution subject transmits a stop command to the client to indicate stop of video recording. can do.

続いてステップ401におけるログインテストケースを例として、ログインテストケースの実行を完成したことに応答して、テスト対象設備は、目標操作指令を検出対象設備が実行完成したことを示すための信号を、前記実行主体に送信することができる。例えば、1つの中断信号であってもよい。これによって、前記実行主体は、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信することができる。これを基に、前記実行主体は、映像の録画停止を示すための停止指令をクライアントに送信することができる。   Subsequently, in response to the completion of the execution of the login test case using the login test case in step 401 as an example, the test target equipment outputs a signal for indicating that the detection target equipment has completed execution of the target operation command, It can be transmitted to the execution subject. For example, one interruption signal may be used. Thus, the execution subject can receive a signal indicating that the target facility has completed execution of the target operation command. Based on this, the execution subject can transmit a stop command for indicating stop of video recording to the client.

ステップ403において、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定する。   In step 403, the target image transmitted from the client is received, and the target image is determined as the image of the image displayed on the screen when the detection target equipment executes the target operation command.

本実施例において、前記実行主体は、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定することができる。ここで、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である。   In this embodiment, the execution subject can receive the target image transmitted from the client and determine the target image as the image of the image displayed on the screen when the detection target equipment executes the target operation command. . Here, the target video is a video obtained by the client starting recording in response to receiving the start command and stopping recording in response to receiving the stop command.

ステップ404において、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得する。   In step 404, a video of a previously captured image displayed on the screen when the target operation instruction executes the target operation command is acquired.

ステップ405において、映像をフレームシーケンスに解析する。   In step 405, the video is analyzed into a frame sequence.

ステップ406において、フレームシーケンスから開始フレーム及び終了フレームを確定する。   In step 406, a start frame and an end frame are determined from the frame sequence.

ここで、開始フレームは、検出対象設備が目標操作指令を実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む。   Here, the start frame includes an image displayed on the screen when the detection target equipment starts executing the target operation command, and the end frame is displayed on the screen when the detection target equipment completes execution of the target operation command. Contains images.

ステップ407において、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。   In step 407, a response time when the target device executes the target operation command is determined based on the start frame and the end frame.

本実施例において、ステップ404〜407の具体的な実現及びそれからもたらす技術的効果は、図2の対応する実施例におけるステップ201〜204を参照することができ、ここでは繰り返して説明しない。   In the present embodiment, the specific realization of steps 404 to 407 and the technical effects resulting therefrom can be referred to steps 201 to 204 in the corresponding embodiment of FIG. 2 and will not be described again here.

図4から分かるように、図2の対応する実施例と比較すると、本実施例における応答時間を確定するための方法は、クライアントに開始指令及び停止指令を送信することによって、クライアントに映像の録画を完成させるように制御する。手動録画と比較して、自動録画を実現することができる。   As can be seen from FIG. 4, when compared with the corresponding embodiment of FIG. 2, the method for determining the response time in this embodiment is to send a start command and a stop command to the client, thereby recording the video to the client. Is controlled to be completed. Automatic recording can be realized as compared with manual recording.

さらに図5を参照すると、前記各図に示す方法に対する実現として、本発明は、応答時間を確定するための装置を提供し、当該装置の実施例は、図2に示す方法実施例に対応され、当該装置は、具体的に様々な電子機器に適用される。   Still referring to FIG. 5, as an implementation for the method shown in each figure, the present invention provides an apparatus for determining response time, an embodiment of which corresponds to the method embodiment shown in FIG. The device is specifically applied to various electronic devices.

図5に示すように、本実施例の応答時間を確定するための装置は、取得ユニット501、解析ユニット502、キーフレーム確定ユニット503及び応答時間確定ユニット504を備える。ここで、取得ユニット501は、目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成される。解析ユニット502は、映像をフレームシーケンスに解析するように構成される。キーフレーム確定ユニット503は、フレームシーケンスから開始フレーム及び終了フレームを確定するように構成される。ここで、開始フレームは、目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含み、終了フレームは、目標操作指令の実行を検出対象設備が完成した時にスクリーンに表示されるイメージを含む。応答時間確定ユニット504は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定するように構成される。   As shown in FIG. 5, the apparatus for determining the response time according to the present embodiment includes an acquisition unit 501, an analysis unit 502, a key frame determination unit 503, and a response time determination unit 504. Here, the acquisition unit 501 is configured to acquire a video of a previously captured image displayed on the screen when the target device executes the target operation command. The analysis unit 502 is configured to analyze the video into a sequence of frames. The key frame determination unit 503 is configured to determine a start frame and an end frame from a frame sequence. Here, the start frame includes an image displayed on the screen when the target operation command starts executing the target operation command, and the end frame is displayed on the screen when the target object command completes execution of the target operation command. Contains images. The response time determination unit 504 is configured to determine a response time when the target device executes the target operation command based on the start frame and the end frame.

本実施例において、応答時間を確定するための装置500における取得ユニット501、解析ユニット502、キーフレーム確定ユニット503及び応答時間確定ユニット504の具体的な処理及びそれがもたらす技術的な効果は、図2の対応する実施例におけるステップ201〜204と類似するので、ここでは繰り返して説明しない。   In the present embodiment, the specific processing of the acquisition unit 501, the analysis unit 502, the key frame determination unit 503, and the response time determination unit 504 in the apparatus 500 for determining the response time and the technical effects brought about by the figure are shown in FIG. The steps are similar to steps 201 to 204 in the corresponding embodiment 2 and will not be described again here.

本実施例の一部の選択的な実施形態において、応答時間を確定するための装置500は、出力ユニット(図示せず)をさらに備えてもよい。ここで、出力ユニットは、応答時間が目標閾値より大きいと確定されたことに応答して、応答時間が目標閾値より大きいことを示すための提示情報を出力するように構成される。   In some optional embodiments of the present example, the apparatus 500 for determining a response time may further include an output unit (not shown). Here, the output unit is configured to output presentation information for indicating that the response time is greater than the target threshold value in response to the determination that the response time is greater than the target threshold value.

本実施例の一部の選択的な実施形態において、目標閾値は、過去の応答時間の集合を取得することと、過去の応答時間の集合に基づいて目標閾値を決定することと、によって取得されたものである。   In some optional embodiments of this embodiment, the target threshold is obtained by obtaining a set of past response times and determining the target threshold based on the set of past response times. It is a thing.

本実施例の一部の選択的な実施形態において、応答時間を確定するための装置500は、開始指令送信ユニット(図示せず)、停止指令送信ユニット(図示せず)及び受信ユニット(図示せず)をさらに備える。ここで、開始指令送信ユニットは、目標操作指令を検出対象設備が実行し始めることを示すための信号を受信したことに応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成される。停止指令送信ユニットは、目標操作指令を検出対象設備が実行完成したことを示すための信号を受信したことに応答して、映像の録画停止を示すための停止指令をクライアントに送信するように構成される。受信ユニットは、クライアントから送信された目標映像を受信し、目標映像を、検出対象設備が目標操作指令を実行する時にスクリーンに表示されるイメージの映像として決定するように構成される。ここで、目標映像は、クライアントが開始指令の受信に応答して録画を開始し、停止指令の受信に応答して録画を停止して取得された映像である。   In some optional embodiments of this embodiment, the apparatus 500 for determining response time comprises a start command sending unit (not shown), a stop command sending unit (not shown), and a receiving unit (not shown). Z) is further provided. Here, the start command transmitting unit transmits a start command for indicating the start of video recording to the client in response to receiving the signal indicating that the target device starts to execute the target operation command. It is configured as follows. The stop command transmission unit is configured to transmit a stop command for indicating stop of video recording to the client in response to receiving a signal indicating that the target operation command has completed execution of the target operation command. Is done. The receiving unit is configured to receive the target image transmitted from the client and determine the target image as an image of an image to be displayed on a screen when the detection target equipment executes the target operation command. Here, the target video is a video obtained by the client starting recording in response to receiving the start command and stopping recording in response to receiving the stop command.

本実施例の一部の選択的な実施形態において、キーフレーム確定ユニット503は、さらに、フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、隣接した2つのフレーム中の1つを開始フレームまたは終了フレームとして確定するように構成される。   In some optional embodiments of the present example, the key frame determination unit 503 is further responsive to determining that a similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold. It is configured to determine one of two adjacent frames as a start frame or an end frame.

本実施例において、前記応答時間を確定するための装置500における解析ユニット502は、まず、取得ユニット501により取得された映像をフレームシーケンスに解析することができ、次に、キーフレーム確定ユニット503は、開始フレーム及び終了フレームを確定することができる。これを基に、応答時間確定ユニット504は、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定することができる。手動テストと比較すると、肉眼が知覚できるものを超える粒度で分析することができ、取得された応答時間の精度を向上することができる。なお、ログ分析の方法と比較すると、非同期演算による誤差を回避することによっても、取得された応答時間の精度を向上することができる。   In this embodiment, the analysis unit 502 in the device 500 for determining the response time can first analyze the video acquired by the acquisition unit 501 into a frame sequence, and then the key frame determination unit 503 , A start frame and an end frame can be determined. Based on this, the response time determination unit 504 can determine the response time when the target device executes the target operation command based on the start frame and the end frame. Compared to the manual test, the analysis can be performed at a granularity exceeding that which can be perceived by the naked eye, and the accuracy of the obtained response time can be improved. As compared with the log analysis method, the accuracy of the obtained response time can be improved by avoiding the error due to the asynchronous calculation.

以下、図6に、本発明の実施例のサーバを実現するのに適するコンピュータシステム600の構造の模式図を示す。図6に示すサーバは、単に1つの例示であり、本発明の実施例の機能及び使用範囲にいずれの限定をもたらすものではない。   FIG. 6 is a schematic diagram showing the structure of a computer system 600 suitable for realizing the server according to the embodiment of the present invention. The server shown in FIG. 6 is merely one example, and does not provide any limitation on the function and scope of use of embodiments of the present invention.

図6に示すように、コンピュータシステム600は、読み取り専用メモリ(ROM)602に格納されたプログラム、または記憶部分608からランダムアクセスメモリ(RAM)603にローディングされたプログラムによって、様々な適切な動作及び処理を実行することができる中央処理装置(CPU)601を備える。RAM603にはさらにシステム600の操作に必要な各種プログラムとデータが格納されている。CPU601、ROM602及びRAM603は、バス604を介して相互接続される。入力/出力(I/O)インターフェース605もバス604に接続される。   As shown in FIG. 6, the computer system 600 may perform various suitable operations and programs by means of a program stored in a read-only memory (ROM) 602 or a program loaded from a storage part 608 into a random access memory (RAM) 603. A central processing unit (CPU) 601 capable of executing processing is provided. The RAM 603 further stores various programs and data necessary for operating the system 600. The CPU 601, the ROM 602, and the RAM 603 are interconnected via a bus 604. An input / output (I / O) interface 605 is also connected to the bus 604.

キーボード、マウスなどを備える入力部分606、液晶ディスプレイ(LCD)など及びスピーカなどを備える出力部分607、ハードディスクなどを備える記憶部分608、及びLANカード、モデムなどを備えるネットワークインターフェースカードの通信部分609は、I/Oインターフェース605に接続される。通信部分609は、インターネットなどのネットワークを介して通信処理を実行する。ドライブ610も必要に応じてI/Oインターフェース605に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体611は、必要に応じてドライブ610に装着されて、それから読み出されるコンピュータプログラムが必要に応じて記憶部分608にインストールされるようにする。   An input portion 606 including a keyboard, a mouse, and the like, an output portion 607 including a liquid crystal display (LCD) and a speaker, a storage portion 608 including a hard disk, and a communication portion 609 of a network interface card including a LAN card, a modem, and the like. Connected to the I / O interface 605. The communication unit 609 performs communication processing via a network such as the Internet. The drive 610 is also connected to the I / O interface 605 as needed. A removable medium 611 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted on the drive 610 as needed, and a computer program read therefrom is installed in the storage unit 608 as needed.

特に、本開示に係る実施例において、フローチャートを参照して上述した過程は、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に担持されているコンピュータプログラムを備えるコンピュータプログラム製品を備え、当該コンピュータプログラムは、フローチャートに示された方法を実行するプログラムコードを備える。このような実施例において、当該コンピュータプログラムは、通信部分609を介してネットワークからダウンロード及びインストールされることができ、および/またはリムーバブル媒体611からインストールされることができる。当該コンピュータプログラムが中央処理装置(CPU)601によって実行される時、本発明の方法に限定された前記機能を実行する。   In particular, in the embodiment according to the present disclosure, the processes described above with reference to the flowcharts can be implemented as a computer software program. For example, an embodiment of the present disclosure comprises a computer program product comprising a computer program embodied on a computer readable medium, the computer program comprising a program code for performing the method illustrated in the flowchart. In such embodiments, the computer program can be downloaded and installed from a network via communication portion 609 and / or can be installed from removable media 611. When the computer program is executed by a central processing unit (CPU) 601, it performs the functions limited to the method of the present invention.

本発明に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体または両方の任意の組み合わせであることができることを説明すべきである。コンピュータ可読記憶媒体は、例えば、電子、磁気、光、電磁気、赤外線、または半導体のシステム、装置、またはデバイス、またはこれらの任意の組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つまたは複数のワイヤを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、光記憶素子、磁気記憶素子、またはこれらの任意の組み合わせを備えるが、これらに限定されない。本発明において、コンピュータ可読記憶媒体は、プログラムを備えるかまたは格納する任意の有形の媒体であることができ、当該プログラムは、指令実行システム、装置、または素子によって使用され、またはそれらとの結合によって使用される。本発明において、コンピュータ可読信号媒体は、コンピュータが読み取り可能なプログラムコードを担持し、ベースバンドに備えたり、または搬送波の一部として伝播されるデータ信号に備えることができる。このように伝播されたデータ信号は、電磁信号、光信号、またはこれらの任意の適切な組み合わせを備えるがこれらに限定されない様々な形態をとることができる。コンピュータ可読信号媒体は、またコンピュータ可読記憶媒体以外のいずれのコンピュータ可読媒体であることができ、当該コンピュータ可読媒体は、指令実行システム、装置または素子によって使用され、またはそれらとの結合によって使用されるプログラムを送信、伝播、または移送することができる。コンピュータ可読媒体に含まれるプログラムコードは、無線、ワイヤ、光ファイバケーブル、RFなど、またはこれらの任意の適切な組み合わせを備えるがこれらに限定されないいずれの適切な媒体によって伝送されることができる。   It should be noted that the computer-readable medium according to the present invention can be a computer-readable signal medium or a computer-readable storage medium or any combination of both. The computer-readable storage medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any combination thereof. More specific examples of computer readable storage media are electrical connections with one or more wires, portable computer disks, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only It includes, but is not limited to, a memory (EPROM or flash memory), an optical fiber, a portable compact disk read only memory (CD-ROM), an optical storage element, a magnetic storage element, or any combination thereof. In the present invention, a computer-readable storage medium can be any tangible medium that comprises or stores a program, which program is used by, or in combination with, a command execution system, apparatus, or element. used. In the present invention, a computer readable signal medium carries computer readable program code and may be provided in baseband or in a data signal propagated as part of a carrier wave. Data signals propagated in this manner can take various forms, including but not limited to electromagnetic signals, optical signals, or any suitable combination thereof. The computer readable signal medium may also be any computer readable medium other than a computer readable storage medium, wherein the computer readable medium is used by, or in conjunction with, a command execution system, apparatus, or element. Programs can be sent, propagated, or transported. The program code contained on the computer readable medium may be transmitted by any suitable medium including, but not limited to, wireless, wire, fiber optic cable, RF, etc., or any suitable combination thereof.

本発明の操作を実行するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語、またはその組み合わせで作成することができ、前記プログラミング言語は、Java(登録商標)、Smalltalk、C++、及び従来のものなどのオブジェクト指向プログラミング言語を備え、また「C」言語または類似なプログラミング言語などの従来の手続き型プログラミング言語も備える。プログラムコードは、完全にユーザーコンピュータで実行されたり、部分的にユーザーコンピュータで実行されたり、1つの独立的なソフトウェアパッケージとして実行されたり、部分的にユーザーコンピュータで部分的にリモートコンピュータで実行されたり、または完全にリモートコンピュータまたはサーバで実行されることができる。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を備える任意の種類のネットワークを介して、ユーザーのコンピュータに接続することができ、または外部コンピュータに接続(例えば、インターネットサービスプロバイダを使用して、インターネットを介して接続)することができる。   The computer program code for performing the operations of the present invention can be written in one or more programming languages, or a combination thereof, including Java, Smalltalk, C ++, and conventional programming languages. It comprises an object-oriented programming language such as one, and also comprises a conventional procedural programming language such as the "C" language or a similar programming language. The program code may be executed entirely on the user computer, partially on the user computer, as a single independent software package, partially on the user computer and partially on a remote computer , Or entirely on a remote computer or server. In the case of a remote computer, the remote computer can connect to the user's computer via any type of network, including a local area network (LAN) or a wide area network (WAN), or connect to an external computer (eg, Can connect via the Internet, using an Internet service provider).

図面におけるフローチャート及びブロック図は、本発明の様々な実施例によるシステム、方法及びコンピュータプログラム製品の実現可能な実施形態の構造、機能、及び操作を示す。これに関して、フローチャートまたはブロック図における各ブロックは、1つのモジュール、プログラムセグメントまたはコードの一部を表すことができ、当該モジュール、プログラムセグメントまたはコードの一部は、規定された論理機能を実現するための1つまたは複数の実行可能な指令を備える。また、代替実施形態において、ブロックに示されている機能は、図面に示されているものとは異なる順序で発生することもあることに留意されたい。例えば、連続して表示される2つのブロックは、実際には実質的に並列に実行されてもよく、それらは含まれる機能に応じて逆の順序で実行されてもよい。また、ブロック図および/またはフローチャートの各ブロック、及びブロック図および/またはフローチャートのブロックの組み合わせは、規定された機能または操作を実行する専用のハードウェアベースのシステムで実現され、または専用のハードウェアとコンピュータ指令の組み合わせによって実現されることができることにも留意されたい。   The flowcharts and block diagrams in the drawings illustrate the structures, functions, and operations of possible embodiments of the systems, methods, and computer program products according to various embodiments of the present invention. In this regard, each block in the flowcharts or block diagrams may represent a module, a program segment, or a portion of code, where the module, program segment, or portion of the code implements a defined logical function. One or more executable instructions. Also note that in alternate embodiments, the functions noted in the blocks may occur out of the order noted in the figures. For example, two blocks displayed in succession may, in fact, be executed substantially in parallel, or they may be executed in the reverse order, depending on the functionality involved. Also, each block in the block diagrams and / or flowcharts, and combinations of blocks in the block diagrams and / or flowcharts, may be implemented in dedicated hardware-based systems that perform specified functions or operations, or may be implemented using dedicated hardware. It can also be realized by a combination of and computer instructions.

本発明の実施例で言及されたユニットは、ソフトウェアによって実現されることができ、またはハードウェアによって実現されることもできる。記述されたユニットは、また、例えば、取得ユニット、解析ユニット、キーフレーム確定ユニット及び応答時間確定ユニットを備えるプロセッサーとしてプロセッサーに設置されることができる。ここで、これらのユニットの名称は、当該ユニット自体を限定するものではない場合があり、例えば、取得ユニットは、また、「目標操作指令を検出対象設備が実行する時にスクリーンに表示される予め撮影されたイメージの映像を取得するユニット」と記述されることもできる。   The units mentioned in the embodiments of the present invention may be implemented by software or may be implemented by hardware. The described units can also be installed in a processor, for example as a processor comprising an acquisition unit, an analysis unit, a key frame determination unit and a response time determination unit. Here, the names of these units may not be limited to the units themselves.For example, the acquisition unit may also be configured to perform a “pre-shooting displayed on the screen when the target operation command executes the target operation command”. A unit for acquiring a video of the created image. "

他の態様として、本発明は、コンピュータ可読媒体をさらに提供し、当該コンピュータ可読媒体は、前記実施例で説明したサーバに含まれることができ、または別途に存在し、当該サーバにインストールされていないことができる。前記コンピュータ可読媒体は、1つまたは複数のプログラムが担持されることができ、前記1つまたは複数のプログラムが当該サーバによって実行される場合、当該サーバは、目標操作指令を検出対象設備が実行する時にスクリーンに表示される予め撮影されたイメージの映像を取得し、映像をフレームシーケンスに解析し、フレームシーケンスから目標操作指令を検出対象設備が実行し始める時にスクリーンに表示されるイメージを含む開始フレームと、検出対象設備が目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含む終了フレームとを決定し、開始フレーム及び終了フレームに基づいて、目標操作指令を検出対象設備が実行する時の応答時間を確定する。   In another aspect, the present invention further provides a computer-readable medium, which may be included in the server described in the above embodiment, or may be separately provided and not installed on the server. be able to. The computer readable medium can carry one or more programs, and when the one or more programs are executed by the server, the server executes the target operation command by the detection target equipment. A start frame including an image displayed on the screen when the target object starts to execute the target operation command from the frame sequence by acquiring a video of a pre-captured image displayed on the screen and analyzing the video into a frame sequence. And an end frame including an image displayed on the screen when the detection target equipment completes execution of the target operation instruction. When the detection target equipment executes the target operation instruction based on the start frame and the end frame. Determine the response time of

以上の説明は、本発明の好ましい実施例及び応用された技術の原理の説明にすぎない。本発明で言及される本発明の範囲は、前記の技術的特徴の特定の組み合わせに限定されず、同時に、前記の発明構想から逸脱することなく、前記の技術的特徴または均等な特徴を任意に組み合わせて形成された。例えば、前記の特徴と本発明において開示されるがこれに限定されない技術的特徴と類似した機能を有する技術的特徴が互いに交換されて形成される他の技術的解決手段を網羅すべきであることを当業者は理解すべきである。

The above description is only the description of the preferred embodiment of the present invention and the principle of the applied technology. The scope of the present invention referred to in the present invention is not limited to the specific combination of the technical features described above, and at the same time, arbitrarily adds the technical features or equivalent features without departing from the inventive concept. Formed in combination. For example, the technical features having functions similar to the technical features disclosed in the present invention and the technical features disclosed in, but not limited to, the present invention should be exchanged with each other to cover other technical solutions. Should be understood by those skilled in the art.

Claims (12)

応答時間を確定するための方法であって、
目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することと、
前記映像をフレームシーケンスに解析することと、
前記フレームシーケンスから開始フレーム及び終了フレームを確定することと、
前記開始フレーム及び前記終了フレームに基づいて、前記目標操作指令を前記検出対象設備が実行する時の応答時間を確定することと、を備え、
前記開始フレームは、前記検出対象設備が前記目標操作指令を実行し始める時にスクリーンに表示されるイメージを含むフレームであり、前記終了フレームは、前記検出対象設備が前記目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、
応答時間を確定するための方法。
A method for determining a response time,
Acquiring a video of a previously captured image, which is displayed on the screen when the target device executes the target operation command,
Analyzing the video into a frame sequence;
Determining a start frame and an end frame from the frame sequence;
Based on the start frame and the end frame, to determine the response time when the detection target equipment executes the target operation command,
The start frame is a frame including an image displayed on a screen when the detection target equipment starts executing the target operation command, and the end frame is a frame in which the detection target equipment has completed execution of the target operation command. A frame containing an image that is sometimes displayed on the screen,
A method for determining response time.
前記応答時間が目標閾値より大きいと確定されたことに応答して、前記応答時間が前記目標閾値より大きいことを示すための提示情報を出力することをさらに備えることを特徴とする、
請求項1に記載の応答時間を確定するための方法。
Further comprising: outputting presentation information for indicating that the response time is greater than the target threshold, in response to the response time being determined to be greater than the target threshold.
The method for determining a response time according to claim 1.
前記目標閾値は、
過去の応答時間の集合を取得することと、
前記過去の応答時間の集合に基づいて前記目標閾値を決定することと、によって取得されることを特徴とする、
請求項2に記載の応答時間を確定するための方法。
The target threshold is
Obtaining a set of past response times;
Determining the target threshold based on the set of the past response times,
A method for determining a response time according to claim 2.
前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得することの前に、前記応答時間を確定するための方法は、
前記目標操作指令を前記検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信することと、
前記目標操作指令の実行を前記検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令を前記クライアントに送信することと、
前記クライアントから送信された目標映像を受信し、前記目標映像を、前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定することと、をさらに備え、
前記目標映像は、前記クライアントが前記開始指令の受信に応答して録画を開始し、前記停止指令の受信に応答して録画を停止して取得された映像であることを特徴とする、
請求項1乃至3のいずれか一項に記載の応答時間を確定するための方法。
The method for determining the response time before acquiring an image of a pre-shot image, which is displayed on a screen when the detection target equipment executes the target operation command,
In response to receiving a signal to indicate that the target operation command is to be executed by the detection target equipment, transmitting a start command to the client to indicate the start of video recording,
In response to receiving a signal to indicate that the target operation command has been completed, the target operation command is executed, and transmitting a stop command to the client to indicate a stop of video recording,
Receiving the target video transmitted from the client, determining the target video as a video of an image displayed on a screen when the target operation command executes the target operation command,
The target image is characterized in that the client starts recording in response to receiving the start command, and is an image acquired by stopping recording in response to receiving the stop command.
A method for determining a response time according to any one of claims 1 to 3.
前記フレームシーケンスから前記開始フレーム及び前記終了フレームを確定することは、
前記フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、前記隣接した2つのフレーム中の1つを前記開始フレームまたは前記終了フレームとして確定することを備えることを特徴とする
請求項1乃至3のいずれか一項に記載の応答時間を確定するための方法。
Determining the start frame and the end frame from the frame sequence,
Determining one of the two adjacent frames as the start frame or the end frame in response to the determination that the similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold. The method for determining a response time according to any one of claims 1 to 3, comprising:
応答時間を確定するための装置であって、
目標操作指令を検出対象設備が実行する時にスクリーンに表示される、予め撮影されたイメージの映像を取得するように構成された取得ユニットと、
前記映像をフレームシーケンスに解析するように構成された解析ユニットと、
前記フレームシーケンスから開始フレーム及び終了フレームを確定するように構成されたキーフレーム確定ユニットと、
前記開始フレーム及び前記終了フレームに基づいて、前記目標操作指令を前記検出対象設備が実行する時の応答時間を確定するように構成された応答時間確定ユニットと、を備え、
前記開始フレームは、前記検出対象設備が前記目標操作指令を実行し始める時にスクリーンに表示されるイメージを含むフレームであり、前記終了フレームは、前記検出対象設備が前記目標操作指令の実行を完成した時にスクリーンに表示されるイメージを含むフレームである、
応答時間を確定するための装置。
A device for determining a response time,
An acquisition unit configured to acquire a video of a previously captured image, which is displayed on a screen when the target operation instruction executes the target operation command,
An analysis unit configured to analyze the video into a frame sequence;
A key frame determination unit configured to determine a start frame and an end frame from the frame sequence;
A response time determination unit configured to determine a response time when the target facility executes the target operation command based on the start frame and the end frame,
The start frame is a frame including an image displayed on a screen when the detection target equipment starts executing the target operation command, and the end frame is a frame in which the detection target equipment has completed execution of the target operation command. A frame containing an image that is sometimes displayed on the screen,
A device for determining the response time.
前記応答時間が目標閾値より大きいと確定されたことに応答して、前記応答時間が前記目標閾値より大きいことを示すための提示情報を出力するように構成された出力ユニットをさらに備えることを特徴とする、
請求項6に記載の応答時間を確定するための装置。
An output unit configured to output presentation information for indicating that the response time is greater than the target threshold in response to the response time being determined to be greater than the target threshold. And
An apparatus for determining a response time according to claim 6.
前記目標閾値は、
過去の応答時間の集合を取得することと、
前記過去の応答時間の集合に基づいて前記目標閾値を決定することと、によって取得されることを特徴とする、
請求項7に記載の応答時間を確定するための装置。
The target threshold is
Obtaining a set of past response times;
Determining the target threshold based on the set of the past response times,
An apparatus for determining a response time according to claim 7.
前記目標操作指令を前記検出対象設備が実行し始めることを示すための信号の受信に応答して、映像の録画開始を示すための開始指令をクライアントに送信するように構成された開始指令送信ユニットと、
前記目標操作指令の実行を前記検出対象設備が完成したことを示すための信号の受信に応答して、映像の録画停止を示すための停止指令を前記クライアントに送信するように構成された停止指令送信ユニットと、
前記クライアントから送信された目標映像を受信し、前記目標映像を、前記目標操作指令を前記検出対象設備が実行する時にスクリーンに表示されるイメージの映像として決定するように構成された受信ユニットと、をさらに備え、
前記目標映像は、前記クライアントが前記開始指令の受信に応答して録画を開始し、前記停止指令の受信に応答して録画を停止して取得された映像であることを特徴とする、
請求項6乃至8のいずれか一項に記載の応答時間を確定するための装置。
A start command transmitting unit configured to transmit a start command to indicate a start of video recording to a client in response to receiving a signal indicating that the target operation command is to be executed by the detection target equipment. When,
A stop command configured to transmit to the client a stop command to indicate stop of video recording in response to receiving a signal to indicate that the detection target facility has completed execution of the target operation command. A transmission unit,
A receiving unit configured to receive a target image transmitted from the client, and determine the target image as an image of an image displayed on a screen when the target operation instruction executes the target operation command; Further comprising
The target image is characterized in that the client starts recording in response to receiving the start command, and is an image acquired by stopping recording in response to receiving the stop command.
An apparatus for determining a response time according to any one of claims 6 to 8.
前記キーフレーム確定ユニットは、さらに、
前記フレームシーケンスにおける隣接した2つのフレームの類似度が所定の閾値より大きいと確定されたことに応答して、前記隣接した2つのフレーム中の1つを前記開始フレームまたは前記終了フレームとして確定するように構成されたことを特徴とする
請求項6乃至8のいずれか一項に記載の応答時間を確定するための装置。
The key frame determination unit further includes:
Responding to a determination that the similarity between two adjacent frames in the frame sequence is greater than a predetermined threshold, one of the two adjacent frames is determined as the start frame or the end frame. The apparatus for determining a response time according to any one of claims 6 to 8, characterized in that:
1つまたは複数のプロセッサーと、
1つまたは複数のプログラムが格納されている記憶装置とを備えるサーバであって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサーによって実行されると、前記1つまたは複数のプロセッサーに請求項1乃至5のいずれか一項に記載の方法を実現させる、サーバ。
One or more processors,
A storage device storing one or more programs,
A server that, when the one or more programs are executed by the one or more processors, causes the one or more processors to implement the method according to any one of claims 1 to 5.
コンピュータプログラムが格納されているコンピュータ可読媒体であって、
前記プログラムがプロセッサーによって実行されると、請求項1乃至5のいずれか一項に記載の方法が実現されるコンピュータ可読媒体。
A computer-readable medium storing a computer program,
A computer-readable medium on which the method according to any one of claims 1 to 5 is realized when the program is executed by a processor.
JP2019127386A 2018-08-22 2019-07-09 Methods and devices for determining response time Active JP6898968B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810962004.6 2018-08-22
CN201810962004.6A CN108900776B (en) 2018-08-22 2018-08-22 Method and apparatus for determining response time

Publications (2)

Publication Number Publication Date
JP2020030811A true JP2020030811A (en) 2020-02-27
JP6898968B2 JP6898968B2 (en) 2021-07-07

Family

ID=64358303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019127386A Active JP6898968B2 (en) 2018-08-22 2019-07-09 Methods and devices for determining response time

Country Status (3)

Country Link
JP (1) JP6898968B2 (en)
KR (1) KR102158557B1 (en)
CN (1) CN108900776B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798358A (en) * 2020-07-01 2020-10-20 北京梧桐车联科技有限责任公司 Method and device for determining route calculation time, electronic equipment and readable storage medium
CN113032228A (en) * 2020-11-26 2021-06-25 北京字节跳动网络技术有限公司 Method, device, equipment and storage medium for determining operation response time consumption
CN113312967A (en) * 2021-04-22 2021-08-27 北京搜狗科技发展有限公司 Detection method, device and device for detection
CN113986172A (en) * 2021-10-27 2022-01-28 佛山市顺德区美的电子科技有限公司 Electronic equipment, screen display method and device thereof and storage medium
CN114827754A (en) * 2022-02-23 2022-07-29 阿里巴巴(中国)有限公司 Method and device for detecting video first frame time

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111245559B (en) * 2018-11-29 2023-04-18 阿里巴巴集团控股有限公司 Information determination method, information judgment method and device and computing equipment
CN111324521B (en) * 2018-12-13 2023-03-28 花瓣云科技有限公司 Graphical interface performance test method and test equipment
CN111949509B (en) * 2019-05-17 2023-08-15 百度在线网络技术(北京)有限公司 Response time testing method, device and equipment of application software and storage medium
CN110209581A (en) * 2019-05-31 2019-09-06 北京字节跳动网络技术有限公司 Trigger action analysis method and device based on application program
CN110442499B (en) * 2019-07-10 2023-08-04 创新先进技术有限公司 Method and device for testing and improving page response performance and terminal equipment
CN111405218A (en) * 2020-03-26 2020-07-10 深圳市微测检测有限公司 Touch screen time delay detection method, system, device, equipment and storage medium
CN111858318B (en) * 2020-06-30 2024-04-02 北京百度网讯科技有限公司 Response time testing method, device, equipment and computer storage medium
CN112055237B (en) * 2020-08-31 2022-07-19 北京爱奇艺科技有限公司 Method, system, apparatus, device and storage medium for determining screen-to-screen delay
CN112203042B (en) * 2020-09-10 2022-08-05 福建升腾资讯有限公司 Cloud desktop operation response time testing method, system, equipment and medium
CN112218155A (en) * 2020-09-24 2021-01-12 北京达佳互联信息技术有限公司 Automatic detection method and device for switching time consumption and electronic equipment
CN112437289B (en) * 2020-09-28 2023-03-10 上海艾策通讯科技股份有限公司 Switching time delay obtaining method
CN112203150B (en) * 2020-09-30 2022-03-11 腾讯科技(深圳)有限公司 Time-consuming acquisition method, device, equipment and computer-readable storage medium
CN113225624A (en) * 2021-04-08 2021-08-06 腾讯科技(深圳)有限公司 Time-consuming determination method and device for voice recognition
CN113485579A (en) * 2021-06-30 2021-10-08 东莞市小精灵教育软件有限公司 Finger stable frame detection method and device and computer readable storage medium
CN113821438A (en) * 2021-09-23 2021-12-21 统信软件技术有限公司 Application response performance test method and system and computing equipment
CN114051110B (en) * 2021-11-08 2024-04-02 北京百度网讯科技有限公司 Video generation method, device, electronic equipment and storage medium
CN115695851B (en) * 2022-12-28 2023-03-28 海马云(天津)信息技术有限公司 End-to-end delay calculation method and device, storage medium and electronic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8644623B2 (en) * 2011-11-16 2014-02-04 Microsoft Corporation Measuring web page rendering time
CN104090842A (en) * 2014-07-15 2014-10-08 深圳市金立通信设备有限公司 Detection method for application program running
JP2017156817A (en) * 2016-02-29 2017-09-07 株式会社日立製作所 User information management system
KR102494584B1 (en) * 2016-08-18 2023-02-02 삼성전자주식회사 Display apparatus and content display method thereof
KR101874078B1 (en) * 2016-10-05 2018-07-03 에스케이테크엑스 주식회사 Apparatus for measuring End-to-End delay of application and method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798358A (en) * 2020-07-01 2020-10-20 北京梧桐车联科技有限责任公司 Method and device for determining route calculation time, electronic equipment and readable storage medium
CN113032228A (en) * 2020-11-26 2021-06-25 北京字节跳动网络技术有限公司 Method, device, equipment and storage medium for determining operation response time consumption
CN113032228B (en) * 2020-11-26 2023-09-05 北京字节跳动网络技术有限公司 Method, device, equipment and storage medium for determining time consumption of operation response
CN113312967A (en) * 2021-04-22 2021-08-27 北京搜狗科技发展有限公司 Detection method, device and device for detection
CN113986172A (en) * 2021-10-27 2022-01-28 佛山市顺德区美的电子科技有限公司 Electronic equipment, screen display method and device thereof and storage medium
CN114827754A (en) * 2022-02-23 2022-07-29 阿里巴巴(中国)有限公司 Method and device for detecting video first frame time
CN114827754B (en) * 2022-02-23 2023-09-12 阿里巴巴(中国)有限公司 Video first frame time detection method and device

Also Published As

Publication number Publication date
JP6898968B2 (en) 2021-07-07
KR102158557B1 (en) 2020-09-22
CN108900776A (en) 2018-11-27
CN108900776B (en) 2020-11-27
KR20200022329A (en) 2020-03-03

Similar Documents

Publication Publication Date Title
JP2020030811A (en) Method and device for determining response time
CN108769214B (en) Method and apparatus for controlling edge computing device, and method and apparatus for updating data
US20190051147A1 (en) Remote control method, apparatus, terminal device, and computer readable storage medium
US9300520B2 (en) Mobile network application test
US11360737B2 (en) Method and apparatus for providing speech service
US11363066B2 (en) Method and device for information processing, test terminal, test platform and storage medium
CN111858318B (en) Response time testing method, device, equipment and computer storage medium
CN108235004B (en) Video playing performance test method, device and system
CN112306793A (en) Method and device for monitoring webpage
WO2021120544A1 (en) Method and apparatus for debugging device
CN111402220B (en) Method and device for acquiring information
US9769434B1 (en) Remote control of a user's wearable computing device in help desk applications
CN110673886B (en) Method and device for generating thermodynamic diagrams
CN112954056B (en) Method and device for processing monitoring data, electronic equipment and storage medium
CN116662193A (en) Page testing method and device
CN109947659B (en) System, method and apparatus for testing applications
CN115938013A (en) Method, apparatus, device and computer readable medium for monitoring data
CN115422058A (en) Method and device for testing face recognition application
CN109960659B (en) Method and device for detecting application program
CN116560918A (en) Pressure testing method, device, equipment and medium
CN115033469A (en) Website system performance test method and device, equipment and storage medium
CN110401603B (en) Method and device for processing information
CN114840379A (en) Log generation method, device, server and storage medium
CN110633182B (en) System, method and device for monitoring server stability
CN110084298B (en) Method and device for detecting image similarity

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210611

R150 Certificate of patent or registration of utility model

Ref document number: 6898968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150