<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Dec 3, 2019, at 1:54 PM, Ryosuke Niwa <<a href="mailto:rniwa@webkit.org" class="">rniwa@webkit.org</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div class=""><div dir="auto" class=""><br class=""></div></div><div class=""><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Dec 3, 2019 at 9:29 AM Alexey Proskuryakov <<a href="mailto:ap@webkit.org" class="">ap@webkit.org</a>> wrote:<br class=""></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word;line-break:after-white-space" class=""><div class=""><br class=""></div><div class="">Yes, I think that this makes more sense than retrying.</div><div class=""><br class=""></div>What is the current behavior when a patch introduces substantial flakiness? E.g. this scenario:<div class=""><br class=""></div><div class="">- First test run produces 5 failures.</div><div class="">- Second test run produces 5 different failures.</div><div class="">- Clean re-run produces no failures.<br class=""><div class=""><br class=""></div><div class="">This looks like decent evidence to make the EWS bubble red. I don't know what exactly the threshold should be, but that should certainly be below 30.</div></div></div></blockquote><div dir="auto" class=""><br class=""></div><div dir="auto" class="">This makes sense to me.</div><div dir="auto" class=""><br class=""></div><div dir="auto" class="">Another scenario where flaky failures might be a real regression is when tests which never failed before starts failing flakily.</div><div dir="auto" class=""><br class=""></div><div dir="auto" class="">Can we fetch data from the flakiness dashboard and see if we’ve ever observed the flakiness on a given test? That would let us get out of the guessing game.</div></div></div></div></blockquote><div><br class=""></div><div>Yes, that's a good idea, and something we have been exploring lately. Now we have new results database (<a href="https://results.webkit.org" class="">https://results.webkit.org</a>) as well which have REST API support which EWS can use. Using data from results database, we can have significant improvements in efficiency and flakiness detection in EWS. We started with some ideas in <a href="https://bugs.webkit.org/show_bug.cgi?id=204368" class="">https://bugs.webkit.org/show_bug.cgi?id=204368</a>.</div><br class=""><blockquote type="cite" class=""><div class=""><div class=""><div class="gmail_quote"><div dir="auto" class=""><br class=""></div><div dir="auto" class="">I understand some flakiness might be specific to EWS but I’d imagine that’d be more of minority. If it is common, we could also make EWS bots periodically run full tests without patches and report results to flakiness dashboard so that we have a corpse of flaky teat failures on EWS bots as well.</div><div dir="auto" class=""><br class=""></div><div dir="auto" class="">- R. Niwa</div><div dir="auto" class=""><br class=""></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word;line-break:after-white-space" class=""><div dir="auto" class=""><blockquote type="cite" class=""><div class="">3 дек. 2019 г., в 8:40 AM, Aakash Jain <<a href="mailto:aakash_jain@apple.com" target="_blank" class="">aakash_jain@apple.com</a>> написал(а):</div></blockquote></div></div><div style="word-wrap:break-word;line-break:after-white-space" class=""><div class=""><div class=""><blockquote type="cite" class=""><br class=""><div class=""><div class="">Hi Everyone,<br class=""><br class="">We have various layout-tests which are flaky (which sometimes pass and sometimes fail/crash/timeout). EWS needs to work despite these flaky tests, and need to be able to tell whether the patch being tested introduced any test failure or not.<br class=""><br class="">In EWS, we have logic (same logic in both old and new EWS) on how to deal with flaky tests. The logic is roughly following:<br class=""><br class="">- We apply the patch and build.<br class=""><br class="">- Run layout-tests. During the test-run, we retry the failed tests. If those tests pass in retry, the run is considered to have no failing test (this retry part is same for EWS / <a href="http://build.webkit.org/" target="_blank" class="">build.webkit.org</a> / manual-run and part of run-webkit-test script itself).<br class=""><br class="">- If a test-run has some failures, EWS retry the test-run one more time (to check if those test failures were flaky). <br class=""><br class="">- Then we do one more test-run on clean-tree (without the patch), and compare the results of first run, second run, and clean tree run.<br class=""><br class="">- After that we analyze the results from all three test-runs (which we call first_run, second_run and clean_tree_run). <br class=""><br class=""><br class="">If there are different test failures in first and second runs (i.e.: flaky test failures), and the patch being tested did not introduce any new test failure, we retry the entire build (probably hoping that next time we will not see the flakiness). This retry can result in almost infinite loop, if someone commits a very flaky test (which is not rare), and would cause EWS to be almost stuck until the flakiness is fixed.<br class=""><br class="">From <a href="https://trac.webkit.org/browser/webkit/trunk/Tools/Scripts/webkitpy/tool/bot/patchanalysistask.py#L352" target="_blank" class="">https://trac.webkit.org/browser/webkit/trunk/Tools/Scripts/webkitpy/tool/bot/patchanalysistask.py#L352</a>  ('Defer' means retrying the build).<br class="">'''<br class="">350    # At this point we know that at least one test flaked, but no consistent failures<br class="">351    # were introduced. This is a bit of a grey-zone.<br class="">352    return False  # Defer patch<br class="">'''<br class=""><br class=""><br class="">Retrying the entire build, just because of few flaky tests seems excessive and inefficient. This doesn't help identify flaky tests, and only delays the EWS result. Instead, we should mark the build as SUCCESS (since the patch did not introduce any new consistent test failure).<br class=""><br class="">In other EWS test-suites like API tests and JSC tests, we do not retry the entire build on flaky test failures, we ignore the flaky tests, and only focus on tests which failed consistently. We should do the similar thing for layout-tests as well.<br class=""><br class="">I am going to make that change for layout tests in <a href="https://bugs.webkit.org/show_bug.cgi?id=204769" target="_blank" class="">https://bugs.webkit.org/show_bug.cgi?id=204769</a>. Please let me know if anyone has a different opinion.<br class=""><br class="">Thanks<br class="">Aakash</div></div></blockquote></div><br class=""><div class="">
<div style="letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; word-wrap: break-word;" class=""><div class=""><br class=""></div></div></div></div></div>_______________________________________________<br class="">
webkit-dev mailing list<br class="">
<a href="mailto:webkit-dev@lists.webkit.org" target="_blank" class="">webkit-dev@lists.webkit.org</a><br class="">
<a href="https://lists.webkit.org/mailman/listinfo/webkit-dev" rel="noreferrer" target="_blank" class="">https://lists.webkit.org/mailman/listinfo/webkit-dev</a><br class="">
</blockquote></div></div>-- <br class=""><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">- R. Niwa</div>
</div></blockquote></div><br class=""></body></html>