TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 25th, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre
TBA
November, 18, 2020
TITLE
Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre contenu. C'est le moyen idéal pour tenir vos clients informés. Vous souhaitez personnaliser ce texte à votre image ? Glissez-déposez simplement vos éléments comme des images, des liens ou du texte ou connectez les données de votre collection. Donnez plus de détails sur vos services. Utilisez cette mise en page répétitive pour afficher votre

Michal Irani
Weizmann Institute
February 18, 2026
Reading Minds & Machines
1. Can we reconstruct images that a person saw, directly from their fMRI brain recordings?
2. Can we reconstruct the training data that a deep-network trained on, directly from the parameters of the network?
The answer to both of these intriguing questions is “Yes!”
In this talk I will present some of our work in both domains. I will then show how combining the power of Brains & Machines can lead to significant breakthroughs in both areas, and potentially bridge the gap between Minds and Machines. Finally, I will show how combining the power of Multiple Brains (with NO shared data) may lead to new breakthrough discoveries in Brain-Science, and allow mapping of information between different brains.
.jpeg)
Neil Burgess
University College London
February 25, 2026
The hippocampus, spatial planning, generative models
and memory consolidation.
Much is known about the neural representations of current environmental location and direction within the hippocampal formation, but use of such a “cognitive map” requires the online representation of desired locations and how to get there, and the neural basis for this function has been more elusive. I will discuss how “theta sweeps” of place and grid cell firing encode the current location (at early phases of each theta cycle) while, at later phases, sampling around the forward direction during exploration and indicating the direction to desired locations during goal-directed navigation. I will show how a relatively simple attractor model captures these results, but requires inputs signalling movement-direction and goal-direction.I will discuss why it is useful to consider the hippocampus as a generative model (in which head-direction, rather than movement-direction, is required, to translate egocentric sensory inputs to allocentric latent representations and back again) in explaining its roles in both spatial cognition and memory consolidation. “Replay sequences” are thought to support offline consolidation, and likely resemble theta sweeps more than behavioural experience. I will finish (given time) by considering how human memory consolidation can be seen as extraction of latent variables from replay via self-supervised learning, and how this perspective explains aspects of human memory such as gist-based distortions, imagination and planning.
Lior Fox
Gatsby Computational Neuroscience Unit
March 4, 2026
Unsupervised representation learning by amortised neural
message-passing
Useful internal representations should explain the patterns of regularities and dependencies among observations. Probabilistic graphical models promise a principled way to uncover latent factors as such, but they are hard to scale to handle high-dimensional sensory observations and complicated dependencies structures. Neural-networks, on the other hand, excel at approximating complicated high-dimensional functions, but their internal representations do not easily lend themselves to a probabilistic interpretation. Despite some successes, a general unified approach is still missing for integrating the two approaches. I will describe a novel approach towards merging adaptive neural-network components into a probabilistic framework, based on three core ideas. The first is to train a set of networks to collectively perform inference, leveraging the ability of pattern-recognition methods to amortise complicated transformations. The second is to constrain the way in which the outputs of these networks are interpreted, transformed, and combined together. These constraints, together with the learning objective itself, are derived directly from probabilistic considerations encoded in a graphical model. Finally, the third core idea is that of recognition-parametrisation, allowing the inference ("recognition") procedure to directly define the model itself, without requiring an explicit "generative" decoder.
​March 11, 2026
Eve of Cosyne
​
No Seminar
​March 18, 2026
One day after Cosyne
​
No Seminar

Rune Berg
University of Copenhagen
March 25, 2026
TBA
TBA
​
No Seminar
​April 1, 2026
​April 8, 2026
​
No Seminar
Henri Orland
IPHT, Saclay, France
April 15, 2026

CARL VAN VREESWIJK MEMORIAL LECTURE 2026
TBA
​April 22, 2026
​
No Seminar
TBA
Dvora Marciano
The Hebrew University
of Jerusalem
April 29, 2026

TBA
Demian Battaglia
CNRS, Strasbourg
May 6, 2026

TBA
TBA
TBA
TBA
May 13, 2026
TBA
Maria Eckstein
Google Deepmind
May 20, 2026

TBA
TBA
Giancarlo La Camera
Stony Brook University
May 27, 2026

TBA
TBA
Stefan Rotter
Bernstein Center Freiburg and Faculty of Biology
University of Freiburg
June 3, 2026

TBA
TBA
TBA
Alexandre Mahrach
IDIBAPS, Barcelona
June 10, 2026

TBA
TBA
TBA
June 17, 2026
TBA
VVTNS Sixth Season Closing Lecture
​​
Idan Segev
ELSC, The Hebrew Universityof Jerusalem
June 24, 2026
TBA
