<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">I like this idea. Right now we pretend
      we are chromium. Some questions do pop in mind.<br>
      <br>
      1. Not sure what definition of broken is - rendering problems or
      script problems? Other functionality -e.g. local storage/html5
      quirks/differences etc.<br>
      2. Where/how will lists be maintained? Given dynamic nature of
      sites, the list also has to be dynamic and can not be built at
      compile time. So one possibility is list resides on users machine
      through some settings configuration.<br>
      <br>
      As Egor mentioned in other mail, contacting site admin is one
      track and if webkit generates enough traffic, its incentive for
      the site owner so that it works correctly.<br>
      <br>
      Personally I have not came across any site that was completely
      broken. If memory serves right, there were few sites that did not
      render correctly, but don't recall the names right now. <br>
      <br>
      On the other hand, since all the sites that we visit are using an
      automated tool, rendering problems do not impact us that much. All
      we care about is DOM and if its built correctly so that we can
      scrape information. Sites we visit are all in US and are mostly
      major service providers, so chances are high that they care about
      browser compatibility. <br>
      <br>
      I have seen some javascript problems, but nothing specific to
      webkit. If webkit reports the problem, chromium also does the same
      thing.<br>
      <br>
      Regards,<br>
      <br>
      Niranjan<br>
      <br>
      On 05/05/2014 12:09 AM, Carlos Garcia Campos wrote:<br>
    </div>
    <blockquote cite="mid:1399273747.4977.18.camel@charizard"
      type="cite">
      <pre wrap="">The user agent string is still causing problems in different web sites.
No matter how we change it, there's always a web site broken after the
change. So, I think it's impossible to have a static user agent string
that works for us everywhere. 

What do you think about having different user agent strings depending on
the website? I think in the end it's a matter of pretending to be safari
or chromium, so we could have a list of websites that don't work due to
the user agent, and generate a different string for those. 

If we end up doing this, it would be useful to have a list of websites
currently broken due to the user agent, so please share it here if you
know any of them.

Thanks! 
</pre>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
webkit-gtk mailing list
<a class="moz-txt-link-abbreviated" href="mailto:webkit-gtk@lists.webkit.org">webkit-gtk@lists.webkit.org</a>
<a class="moz-txt-link-freetext" href="https://lists.webkit.org/mailman/listinfo/webkit-gtk">https://lists.webkit.org/mailman/listinfo/webkit-gtk</a>
</pre>
    </blockquote>
    <br>
  </body>
</html>