FSST

This blog is a collaborative effort between the Foundation for Student Science and Technology (formerly the Canadian Young Scientist Journal) and Science.gc.ca. Our aim is to offer an interactive platform where Canadian students can talk about their passions, challenges and ideas on how to further pursue scientific interests and education. We welcome new contributors -- if you are interested please contact us at information@science.gc.ca.


Monday, July 25, 2016

The Blue Brain Project

Author: Brian Hyung


The Blue Brain Project is an initiative by Henry Markram and his team of researchers to digitally recreate the immature rat’s neocortical column. Backed by €1-billion in funding, Markram hopes to eventually expand this project into recreating the entire human brain. However, as seen in his paper, there are many problems and shortcomings even with just the rat cortex. This project involves many different parts, from digitally modeling different neuron types, accurately representing synaptic transmission, and more. However, this article will only describe the aspect of how the team tried to accurately represent neuronal and synaptic connections, as well as the potential problems that arise from their method.

The Blue Brain project relies on a 5-rule algorithm to reconstruct the connectome of a rat neocortical column by predicting synapse quantity and location (Figure 1). Initially, Rule 1 assumes that all neurons are potentially connected and Rule 2 states that the location of synapses is established by incidental apposition of neurons.The next three rules were measures taken to reduce the number of synaptic connections (pruning) such that they fit actual experimental data. When they used just rules 1 and 2, they found that their synaptic density was 18 times greater than reported data. Therefore, they implemented Rule 3, which states that actual synapses form at only a fraction of these potential synaptic locations. Thus a number of connections were cut (general pruning). However, now, they found that their model had too many connections that were made up of few synapses. Studies have shown that most connections are made of multiple synapses.To address this issue, they performed multi-synaptic pruning, where they removed all of the connections that were made of too few synapses. This used Rule 4, which states that connections always involve multiple synapses.Yet still they had a problem of having synaptic density that was four times too great. Therefore, the last step, Rule 5 was implemented, which was based on a finding that only a fraction of the multi-synaptic connections are functionally active.Therefore, a fraction of the remaining connections were cut (plasticity pruning), and these were put into a reserve pool for later uses, such as structural plasticity. These three pruning stages were able to reproduce several experimental findings in the digital brain models and was deemed accurate by the research team.

However, this algorithm contains shortcomings, especially because the rules for neuronal connections are not as simple as it is presented in cases where synapses form at incidental appositions of neurons. Processes such as functional specificity of local synaptic connections can contribute to connection specificity. Ko et al. (2011) showed that this occurs in the visual cortex of mice, where neurons with similar responses to stimuli formed more than twice as many connections between them, compared to neuron pairs differing in response. It is possible that functional biases of connectivity are also present within the rat neocortical column, although experiments are required to verify this. Implementing this process can improve the algorithm’s considerations of connection specificity when the parameter value is unavailable. The notion that synaptic specificity can differ between local regions reveals that neuronal functions can significantly vary among subnetworks in the column. How local connectivity is organized to produce specific neuronal functions remains to be discovered, but it is one of the possible questions for the Blue Brain project to answer in the future.

This algorithm takes into account many aspects of neuronal connectivity, but it is not robust enough in its current state to accurately predict unknown connectomes in the brain. The design fails to fully encompass the complex process of synaptic specificity, whose mechanisms are not yet well defined. In addition, there are other major components that are unaccounted for such as gap junctions, which are important structures required for electrical neuronal signaling. Since changes in synaptic specificity can translate into different neuronal functions and possibly even behaviours, it must be better integrated into the algorithm to improve digital reconstructions of the brain.

Works Cited:

Ko, H., Hofer, S. B., Pichler, B., Buchanan, K. A., Sjöström, P. J., &Mrsic-Flogel, T.D. (2011). Functional specificity of local synaptic connections in neocortical networks. Nature, 473, 87-91. doi:10.1038/nature09880

Reimann, M.W., King, J. G., Muller, E.B., Ramaswamy, S., &Markram, H. (2015). An algorithm to predict the connectome of neural microcircuits. Frontiers in Computational Neuroscience, 9, 1-18. doi: 10.3389/fncom.2015.00120

Markram H., Muller E., Ramaswamy S., Reimann M.W., Abdellah M., Sanchez C.A., Ailamaki A., … Schürmann F. (2015). Reconstruction and simulation of neocortical microcircuitry.Cell, 163, 456-492.
http://dx.doi.org/10.1016/j.cell.2015.09.029.

Editors: Ariel Shatsky, Justine Baek


Le projet Blue Brain

Auteur: Brian Hyung


Le projet Blue Brain est une initiative de Henry Markram et son équipe de chercheurs pour recréer numériquement la colonne du néocortex d’u rat immature. Soutenu par 1 milliard € en financement, Markram espère éventuellement étendre ce projet pout inclure la récréation de l'ensemble du cerveau humain. Cependant, comme on le voit dans son journal, il y a beaucoup de difficultés impliquées, même avec simplement le cortex de rat. Ce projet comprend de nombreuses parties différentes, de la modélisation numérique de  types de neurones différents, à la représentation précise de la transmission synaptique, et plus. Toutefois, cet article ne décrit que la façon dont l'équipe a essayé de représenter avec précision les connexions neuronales et synaptiques, ainsi que les problèmes potentiels qui découlent de leur méthode.

Le projet Blue Brain repose sur un algorithme à 5 règles pour reconstruire le connectome d'une colonne du néocortex de rat en prédisant la quantité de synapse et l'emplacement (Figure 1). Au début, la Règle 1 suppose que toutes les neurones sont potentiellement connectés et à la règle 2 stipule que l'emplacement des synapses est établie par l'apposition accidentelle de neurones. Les trois prochaines règles sont des mesures prises pour réduire le nombre de connexions synaptiques de telle sorte qu'ils correspondent aux données expérimentales. Quand ils ont seulement utilisé les règles 1 et 2, ils ont constaté que leur densité synaptique était 18 fois plus élevée que les données déclarées. Par conséquent, ils ont mis en œuvre la règle 3, qui stipule que les synapses réelles forment à seulement une fraction de ces emplacements synaptiques potentiels. Ainsi, un certain nombre de connexions ont été coupées (taille générale). Cependant, ils ont ensuite constaté que leur modèle avait trop de connexions qui ont été constitués par que quelques synapses. Des études ont montré que la plupart des connexions sont faites de par plusieurs synapses. Pour résoudre cette question, ils ont effectué l'élagage multi-synaptique, où ils ont enlevé toutes les connexions qui ont été faites par trop peu de synapses. Ceci a utilisé règle 4, qui stipule que les connexions impliquent toujours plusieurs synapses. Par contre, il restait le problème de la densité synaptique qui était quatre fois trop grande. Par conséquent, la dernière étape, la règle 5 a été mise en œuvre. Celle ci a été basé sur une constatation que seule une fraction des connexions multi-synaptiques sont fonctionnellement active. Donc, une fraction des connexions restantes a été coupée, et ceux-ci ont été mis dans une réserve pour des utilisations ultérieures, telles que la plasticité structurelle. Ces trois étapes de taille ont été en mesure de reproduire plusieurs résultats expérimentaux dans les modèles de cerveau numériques et ont été jugées exacte par l'équipe de recherche.

Cependant, cet algorithme contient des lacunes, en particulier parce que les règles pour les connexions neuronales ne sont pas aussi simples que celles présentées dans les cas où les synapses se forment à appositions accidentelles de neurones. Des procédés tels que la spécificité fonctionnelle des connexions synaptiques locales peuvent contribuer à la spécificité de la connexion. Ko et al. (2011) ont montré que cela se produit dans le cortex visuel de la souris, où les neurones avec des réponses similaires à des stimulis forment plus de deux fois plus de connexions entre eux, par rapport à des paires de neurones avec de différentes réponses. Il est possible que les biais fonctionnels de connectivité soient également présents dans la colonne du néocortex de rat, bien que des expériences soient nécessaires pour vérifier cela. La mise en œuvre de ce processus peut améliorer les considérations de l'algorithme de spécificité de connexion lorsque la valeur du paramètre est indisponible. La notion que la spécificité synaptique peut différer entre les régions locales révèle que les fonctions neuronales peuvent varier de manière significative entre les sous-réseaux dans la colonne. Comment la connectivité locale est organisée pour produire des fonctions neuronales spécifiques reste à découvrir, mais il est l'une des questions possibles pour le projet Blue Brain à l'avenir.

Cet algorithme prend en compte de nombreux aspects de la connectivité neuronale, mais il n’est pas assez robuste dans son état actuel pour prédire avec précision les connectomes inconnus dans le cerveau. La conception ne parvient pas à couvrir entièrement le processus complexe de la spécificité synaptique, dont les mécanismes ne sont pas encore bien définis. En outre, il existe d'autres composants majeurs qui sont portés disparus tels que les jonctions lacunaires, qui sont des structures importantes nécessaires pour la signalisation neuronale électrique. Comme les changements de la spécificité synaptique peuvent se traduire en différentes fonctions neuronales et peut-être même comportements, il doit être mieux intégré dans l'algorithme pour améliorer les reconstructions numériques du cerveau.

Bibliographie

Ko, H., Hofer, S. B., Pichler, B., Buchanan, K. A., Sjöström, P. J., &Mrsic-Flogel, T.D. (2011). Functional specificity of local synaptic connections in neocortical networks. Nature, 473, 87-91. doi:10.1038/nature09880

Reimann, M.W., King, J. G., Muller, E.B., Ramaswamy, S., &Markram, H. (2015). An algorithm to predict the connectome of neural microcircuits. Frontiers in Computational Neuroscience, 9, 1-18. doi: 10.3389/fncom.2015.00120

Markram H., Muller E., Ramaswamy S., Reimann M.W., Abdellah M., Sanchez C.A., Ailamaki A., … Schürmann F. (2015). Reconstruction and simulation of neocortical microcircuitry.Cell, 163, 456-492.
http://dx.doi.org/10.1016/j.cell.2015.09.029.

Editors: Ariel Shatsky, Justine Baek


La nanotechnologie en médecine

Écrit par Catherine Cai

Comment sentirait contrôler une des plus petites formes de matière? Comment sentirait bâtir des structures au niveau moléculaire? Ce processus se produit si souvent dans nos vies, en nous gardant vivants et en conservant tout autour de nous, que nous n’y nous rendons pas nécessairement compte.  Tout ce dont nous sommes compris est accompli à une échelle moléculaire, et avec des développements en science et en technologie, nous pouvons désormais utiliser la nanotechnologie.

Le mot “nanotechnologie” est dérivé de nano, qui signifie un milliardième d’un mètre. La nanotechnologie est une branche de la science et de la technologie qui concerne la construction des atomes et des molécules. Si vous cherchez un métier qui implique la nanotechnologie, vous êtes chanceux car elle se traite de presque tous les domaines de la science.

La nanotechnologie n’est pas récemment découverte. À l’origine, elle a été présentée en 1959 par le physicien rénommé Richard Feynman. Il a discuté ce sujet dans sa conférence, “Il y a plein d’espace au fond”(There’s Plenty of Room at the Bottom), dans laquelle il a décrit la possibilité de manipuler les atomes, ce qui inclut rentrer une encyclopédie entière sur la tête d’une épingle. En 1974, le mot “nanotechnologie” a été prononcé pour la première fois par un scientifique japonais nommé Norio Taniguchi. La nanotechnologie a été convenablement présentée au public par K. Eric Drexler, qui a écrit le livre, Moteurs de création : L’ère prévue de la nanotechnologie (Engines of Creation: The Coming Era of Nanotechnology). Ceci a capturé l’attention de nombreux. Imaginez ce que les gens auront pensé si on pourrait fabriquer des objets avec des atomes – que pourrions-nous bâtir avec cette capacité?

La première invention à faire avancer ce domaine était le microscope à effet tunnel (1981), un instrument capable de visualiser des atomes et des liaisons individuelles. Des développeurs chez IBM ont réussi à manipuler des atomes individuelles en forme du logo de leur compagnie en 1989, et par conséquent, ont gagné le prix Nobel de physique pour ceci.

En médecine, la nanotechnologie est très prometteuse. Elle peut influencer l’efficacité de la délivrance
de médicaments, la thérapie, les techniques diagnostiques, la technologie antimicrobienne, et même de la réparation cellulaire.

Un exemple, la délivrance de médicaments, consiste en transportant des médicaments de chimiothérapie aux cellules cancéreuses à l’aide de nanoparticules. Elle est actuellement sous développement à MIT. Des chercheurs ont mené l’enquête sur des souris victimes du cancer du poumon,  une des causes du décès les plus importantes dans le monde. Ils ont alors traité ces souris avec des nanoparticules pour pouvoir cibler les cellules cancereuses tout en portant un médicament nommé phenformin, qui sert extrêmement efficacement à lutter contre des cellules souches métastatiques. Les nanoparticules dépistent les cellules cancereuses par la délivrance ciblée d’anticorps, ce qui ressemble à comment les anticorps naturels marchent dans le corps pour le débarrasser des pathogènes ou matériaux étrangers. Étant attaché à la nanoparticule, cette méthode de délivrance permet au drogue d'être relâché d'une manière systémique et soutenue, ainsi prolongeant la circulation du sang, et donnant assez de temps pour que la nanoparticule accumule dans le tissu du tumeur.

Ceci est bénéfique car il n'entraîne pas la toxicité de la foie comme fait la plupart d'anticorps - par exemple, peut-être les médecins vous diraient de rester hydraté pendant que vous prenez des anticorps pour éviter l'insuffisance des organes. De plus, cette méthode diminue la taille des tumeurs 40% de plus que d'autres méthodes semblables. Cette technique d'utiliser des nanoparticules pour transporter des drogues dans le corps peut être utilisé avec d'autres drogues dans l'avenir.

La nanotechnologie fait face à un développement rapide. Avec assez de financement et de gens qui s'intéressent à s'impliquer dans ce domaine, il y aura tant de possibilités.  Quelques développements auxquels on s'attend incluent des outils chirurgicaux et diagnostiques qui pourraient atteindre les endroits les plus petits, des appareils médicaux implantés définitivement, ainsi que des améliorations en soins médicaux - tels que les pratiques médicaux plus abordables et accessibles.  Surtout, la diagnose en recherche pourrait être plus précise et en temps réel car des "nanobots", ou des très petits robots, pourront entrer le corps et se propager le long du système sanguin pour surveiller les fonctions vitales ou les niveaux chimiques d'une personne, rendant la diagnose plus précise.

Beaucoup de développements ont été réalisés et il y en a encore à réaliser. Pourtant, ce domaine de la science doit être traité prudemment. Étant plus dépendant de la technologie afin d’aider avec le fonctionnement du corps, nos systèmes immunitaires peuvent se détériorer, ainsi nous rendant susceptibles aux maladies facilement soignables une fois qu’on s’y retire.

Édité par Iqra Tariq et Justine Baek



Nanotechnology in Medicine

Author: Catherine Cai

What would it feel like, controlling one of the smallest forms of matter? What would it be like to be building structures at the molecular level?
This process happens so frequently in our lives, keeping us alive and maintaining everything around us, that we don't necessarily realize it. Everything that makes us up is done on the molecular scale, and now with developments in science and technology, we can utilize this method through nanotechnology.

Nanotechnology, derived from nano, meaning one billionth of a meter. Nanotechnology is a branch of science and technology that deals with the construction of individual atoms and molecules. If you're looking for a career with nanotechnology, you're in luck as it encompasses almost all fields of science.

Nanotechnology has not been recently discovered. It was originally introduced in 1959, by the renowned physicist, Richard Feynman. He discussed the topic in his talk, “There's Plenty of Room at the Bottom”, where he described the possibility of manipulating atoms, including making it possible to fit a whole encyclopedia on the head of a pin. In 1974, the term “nanotechnology” was first used by a Japanese scientist by the name of Norio Taniguchi. Nanotechnology was properly introduced to the public by K. Eric Drexler, who wrote the book, Engines of Creation: The Coming Era of Nanotechnology. This sparked the attention of many. Imagine what people would have thought, being able to fabricate things with atoms—what could we build with this capability?

The first invention to help the field of study was the scanning tunneling microscope (1981), which had the ability to visualize individual atoms and bonds. IBM developers were successfully able to manipulate individual atoms in an arrangement of their company’s logo in 1989 and thus won the Nobel Prize in Physics.

In medicine, nanotechnology has been very promising. It can influence the efficiency of drug delivery,
therapy, diagnostic techniques, antimicrobial tech, and even cell repair.

One of the examples, drug delivery, is transporting chemotherapy drugs to cancer cells with the use of nanoparticles. It is currently under development at MIT. Researchers have conducted the experiment on mice that were given lung cancer, one of the world's leading causes of death. The researchers then treated the mice using nanoparticles to target the cancer cells while carrying a drug called phenformin, which is highly effective against metastatic stem cells. The nanoparticle detects the cancer cells through "antibody targeted delivery", which is similar to how natural antibodies work in the body to get rid of foreign pathogens or material. Being attached to the nanoparticle, this method of delivery allows the drug to be released in a sustained and systemic manner, prolonging blood circulation, and giving the nanoparticle enough time to accumulate in tumor tissue. The benefits of this include that this does not induce liver toxicity like most antibodies—for example, doctors may tell you to keep hydrated while taking antibodies to prevent organ failure. This method also shrunk tumors 40% more than other comparable techniques. This technique of using nanoparticles to transport drugs in the human body system can be extended to other drugs in the future.

Nanotechnology is developing very quickly. With the right funding and people willing to partake in this field, the possibilities lie on a wide expanse. Some developments we can expect in the future include having more elegant surgical and diagnostic tools to help reach the tiniest of places, having medical devices permanently implanted, as well as making greater improvements to healthcare, such as making medical practices more accessible and affordable. Notably, research diagnosis could be more accurate and in real time as "nanobots", which are microrobots, can enter the body and travel along the bloodstream to monitor a person's vital functions or chemical levels, allowing for more accurate diagnosis.

There are many developments that have been made and there are still more to come. However, this field of science must be dealt with carefully. With an increased reliance on technology to help bodily functions, our immune systems may deteriorate, making us susceptible to simple diseases once we withdraw.

Editors: Iqra Tariq, Justine Baek