<div dir="ltr"><div class="gmail-gs" style="margin:0px;min-width:0px;padding:0px 0px 20px;width:auto;font-family:"Google Sans",Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:medium"><div class="gmail-"><div id="gmail-:h2" class="gmail-ii gmail-gt" style="direction:ltr;margin:8px 0px 0px;padding:0px;font-size:0.875rem;overflow-x:hidden"><div id="gmail-:h3" class="gmail-a3s gmail-aiL" style="direction:ltr;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;font-size-adjust:none;font-kerning:auto;font-feature-settings:normal;font-stretch:normal;font-size:small;line-height:1.5;font-family:Arial,Helvetica,sans-serif;overflow:auto hidden"><div id="gmail-avWBGd-40"><div dir="ltr">Hello to the community,<div><br></div><div>Apologies if cross-posting, I might have messed up the first time I shared my question. To introduce myself, I am a postdoctoral researcher working on neuropsychiatric disorders and DBS. The datasets we collect include SEEG recordings in EMU settings, iEEG recordings from fully-implanted devices, and scalp EEG for longitudinal monitoring of our patients. I'm interested in the effects of limbic DBS on cognition, which is why I run cognitive tasks in our (arguably very small) patient cohort.</div><div><br></div><div>My main concern (and what I would like to know more about from everyone who has dealt with this) involves the pooling of single-patient recordings from multiple days. My particular case involves SEEG data that I preprocess, epoch, and calculate time-frequency power per trial. All of these steps are performed separately for each session. To compare statistically two conditions (A vs B) in a single session, I simply log the trial-level power spectra through ft_math and perform permutation tests with custom code (it is unintuitive how to do it using ft_freqstatistics  for SEEG data with no neighbors!). For visualization, I just apply standard dB normalization to the raw-power means of condition A and B against their common baseline and plot their difference map.</div><div><br></div><div>My sticking point: data collected across two different sessions/days vary in power, impedance, signal quality etc. My question is this: for a single subject, how do you deal with data standardization prior to pooling and what statistical tests do you run? I could compute mean baseline-normalized spectra per session, average those, and end up with patient/condition averages, but this is the approach for running a group-level statistical analysis across participants; I would lose individual trial structure, therefore can't do permutation tests. I also considered z-transforming all power values per session and then running ft_appendfreqdata, ending up with z-scored time-frequency power per trial, and then pool all trials from each session together. This approach seems unsavory because it destroys mean/variance and I wouldn't know what statistical tests to run on this dataset. What are the suggestions of the community?</div><div><br></div><div>Apologies for a (very) long first/second message! Looking forward to reading everyone's two-cents on this; neural data analysis is a form of art after all and everyone has their own pipelines.</div><div><br></div><div>Best,</div><div>Nikos</div></div><div class="gmail-yj6qo"></div><div class="gmail-adL"></div></div></div></div><div class="gmail-WhmR8e" id="gmail-avWBGd-41" style="clear:both"></div></div></div><br class="gmail-Apple-interchange-newline"></div>