<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=utf-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">Dear Carlos Oscar and Dimitry,<br>
      <br>
      Unfortunately, you seem to have missed the point of our Afanasyev
      2015 paper. Our paper does not try to duplicate the
      "experimentally determined Gain image" but tries to normalize the
      signal from each pixel to the same average and the same standard
      deviation at the exposure and contrast level that the data set was
      recorded. Our approach typically improves significantly on
      standard "<i>a priori</i>" flat field/gain  corrections.<br>
      <br>
      We are not directly interested in generic "gain images" as such
      and we certainly  do not generate "gain images" that have an
      inverted contrast when compared to the other ones you have in
      Figure #1 of your paper. Your comments on our methods are thus not
      appropriate:  "<i>T</i><i>o the best of our knowledge, the only
        article that addresses a similar problem is that of Afanasyev </i><i>et
        al.</i><i> (2015). In their work, they assimilate the gain of
        the camera to the standard deviation of each pixel over a large
        number of movies, and they prove this is a successful way of
        identifying dead pixels. However, our results show that this
        approach does not provide a consistent gain estimation (Fig. 1)</i>."<br>
       <br>
      What you call our "gain image" is - apart from an erroneous
      contrast reversal - actually more similar to the "official" gain
      image in your Fig 1 than does the one generated with your proposed
      algorithm.  I would be interested in knowing what the R2 turns out
      to be after you correct the contrast reversal since it visually is
      better than yours. It would be nice if you could respond to this
      mailing including that information!? By the way how exactly is
      this R2 metric defined (I could not find it anywhere in the
      paper)? <br>
      <br>
      I would want to suggest you and your colleagues to use the FRC
      metric to prove that your approach does indeed remove the
      influence of the various patterns of your detectors exhibits.<br>
      <br>
      My two cents<br>
      <br>
      Marin<br>
      <br>
      =====================<br>
      <br>
      <br>
      On 02/10/2018 15:19, Carlos Oscar Sorzano wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:1c3f8b4a-c387-eced-9e14-eeca7ccfbdaa@cnb.csic.es">By the
      way, in our article we compared both methods (ours and Marin).
      <br>
      <br>
      Kind regards, Carlos Oscar
      <br>
      <br>
      <br>
      On 01/10/2018 21:23, Marin van Heel wrote:
      <br>
      <blockquote type="cite">Dear Da,
        <br>
        <br>
        In IMAGIC-4D  you can perform the necessary camera correction!
        (<a class="moz-txt-link-freetext" href="https://www.nature.com/articles/srep10317">https://www.nature.com/articles/srep10317</a>).  It does it better
        than any manufactures correction and improves the data
        significantly even when performed after using the standard gain
        correction.
        <br>
        <br>
        Cheers,
        <br>
        <br>
        Marin
        <br>
        <br>
        <br>
        =====================================================
        <br>
        <br>
        On 01/10/2018 15:36, Da Cui wrote:
        <br>
        <blockquote type="cite">Hi all,
          <br>
              The gain reference image for one dataset was missing by
          accident. In order to achieve a more accurate motioncor
          result, does anyone have idea about how to generate a gain
          reference image from the dataset (around 3k movies)?
          <br>
              Thank you so much for your help!!!
          <br>
          ---Da
          <br>
          <br>
########################################################################
          <br>
          <br>
          To unsubscribe from the CCPEM list, click the following link:
          <br>
<a class="moz-txt-link-freetext" href="https://www.jiscmail.ac.uk/cgi-bin/webadmin?SUBED1=CCPEM&A=1">https://www.jiscmail.ac.uk/cgi-bin/webadmin?SUBED1=CCPEM&A=1</a>
          <br>
        </blockquote>
        <br>
        <br>
      </blockquote>
      <br>
    </blockquote>
    <p><br>
    </p>
    <pre class="moz-signature" cols="72">-- 
==============================================================

    Prof Dr Ir Marin van Heel

    Laboratório Nacional de Nanotecnologia - LNNano
    CNPEM/LNNano, Campinas, Brazil

    tel:    +55-19-3518-2316
    mobile  +55-19-983455450 (current)
    mobile  +55-19-981809332  
                 (041-19-981809332 TIM)
    Skype:  Marin.van.Heel
    email:  marin.vanheel(A_T)gmail.com
            marin.vanheel(A_T)lnnano.cnpem.br
    and:    mvh.office(A_T)gmail.com  

--------------------------------------------------
    Emeritus Professor of Cryo-EM Data Processing
    Leiden University
    Mobile NL: +31(0)652736618 (ALWAYS ACTIVE SMS)
--------------------------------------------------
    Emeritus Professor of Structural Biology
    Imperial College London
    Faculty of Natural Sciences
    email: m.vanheel(A_T)imperial.ac.uk
--------------------------------------------------

I receive many emails per day and, although I try, 
there is no guarantee that I will actually read each incoming email. </pre>
  </body>
</html>