Podcasts sur l'histoire

Quel était le régime alimentaire principal des Asiatiques pré-agricoles ?

Quel était le régime alimentaire principal des Asiatiques pré-agricoles ?

Le régime alimentaire asiatique moderne est principalement basé sur le riz. Le riz faisait-il partie de l'alimentation paléolithique asiatique ? Savaient-ils comment transformer et manger le riz avant l'agriculture ?

Mis à part les viandes, quelles étaient les autres parties importantes de leur alimentation ? Quels types de fruits étaient courants ?

Je regarde principalement les types de régimes d'Asie de l'Est (Chine/Corée/Japon), mais des régimes alternatifs pour les autres mangeurs de riz (comme l'Asie du Sud-Est, les Indiens) seraient également utiles.


Cet article dans Nature est fascinant - malheureusement, les études chimiques décrites n'ont pas été réalisées sur d'anciens Asiatiques de l'Est, mais il correspond aux preuves archéologiques et anthropologiques du monde entier.

Il n'y a eu que deux études sur les humains modernes du Paléolithique, Homo sapiens sapiens. Une étude des valeurs isotopiques des humains du site paléolithique supérieur (environ 13 000 ans) de Gough's et de la grotte Sun Hole dans le sud de l'Angleterre (Richards et al, 2000a) a indiqué, encore une fois par les valeurs delta15N, que la principale source de les protéines alimentaires étaient d'origine animale et très probablement de la chair d'herbivore. La deuxième étude (Richards et al, 2001) était une étude des valeurs isotopiques des humains du Gravettien et des sites eurasiens ultérieurs (environ 30 000 à 20 000 ans). Les valeurs delta13C et delta15N indiquaient ici des régimes alimentaires riches en protéines animales, mais le type de protéines animales était plus varié que celui des Néandertaliens, incorporant des aliments aquatiques dans leur régime alimentaire. Comme cette étude était une enquête et que les valeurs fauniques delta13C et delta15N n'ont pas été mesurées, il n'est pas possible d'identifier plus précisément les sources de protéines alimentaires sur tous ces sites. Fait intéressant, cette adaptation aux ressources aquatiques devient plus extrême au cours des périodes mésolithiques beaucoup plus tardives (environ 10 000 à 5 000 BP, selon la région) dans certaines parties de l'Europe. Par exemple, des études isotopiques d'humains mésolithiques des gorges du Danube en Europe du Sud-Est indiquent que la majorité des protéines provenaient de poissons d'eau douce, ce qui est corroboré par les preuves archéologiques d'équipements de pêche et d'un grand nombre d'arêtes de poisson (Bonsall et al, 1997).

Des analyses chimiques archéologiques plus récentes, telles que celle effectuée sur les restes de la grotte de Tianyuan, révèlent également une consommation importante de poisson d'eau douce, indiquant que les choses étaient similaires en Asie de l'Est. La preuve est que le régime alimentaire des humains modernes dans le monde paléolithique était principalement de la chair animale, complétée par du matériel végétal facilement récolté.

Les outils paléolithiques utilisés dans la cueillette ou la préparation d'aliments végétaux sont soit absents, soit méconnaissables en tant que tels - à la lumière d'une telle absence, et avec la preuve que le régime alimentaire était principalement à base de viande, il faut en déduire que les aliments à base de plantes qui le traitement requis ou les efforts considérables pour la cueillette ne constituaient pas une grande partie de l'alimentation.

Cela comprend le riz sauvage et d'autres céréales, dont la plupart ont nécessité d'importants efforts de domestication. Les premières preuves de la consommation de riz ne datent que du début du néolithique, 11-12 kybp, et l'orge sauvage ne remonte qu'à 23 kybp, mais pas comme aliment de base, et pas en Asie de l'Est. Il y a une étude de 2009 qui conclut que d'autres grains sauvages ont été récoltés dès 90 kybp, et prétend avoir trouvé des outils en pierre pour le prouver, mais cela n'est pas encore corroboré et peut ne pas être répandu. Les analyses chimiques montrent que les protéines animales étaient l'aliment de base dominant.


En termes de nourriture paléolithique dans le sous-continent indien, il existe peu de littératures tamoules classiques comme "Purananuru" & "Madurai Kanchi" et la littérature tamoule religieuse "Devaram" et "Tiruvasakam" donne plus d'informations sur la nourriture paléolithique.

Selon ces littératures, dont certaines remontent à 600 avant notre ère, cela suggère que les peuples chassaient pour leur nourriture et qu'ils domestiquaient également des animaux comme le poulet et la chèvre qui étaient utilisés comme nourriture. La riziculture était également présente à cette époque. Mais, en raison de l'imprévisibilité de la pluie qui reste l'une des rares sources d'eau à cette époque. Les peuples ont des cultures sèches alternatives comme les millets qui étaient mangés par ébullition, coulant et mangés crus également.

Selon les preuves documentées, nous pouvons conclure que les peuples du sous-continent indien n'utilisaient pas seulement le riz comme aliment de base. Mais, aussi d'autres formes de millets.


Cuisine des Treize Colonies

Les cuisine des Treize Colonies comprend les aliments, le pain, les habitudes alimentaires et les méthodes de cuisson des États-Unis coloniaux.

Dans la période précédant 1776, un certain nombre d'événements ont entraîné un changement drastique dans le régime alimentaire des colons américains. Comme ils ne pouvaient plus compter sur les importations britanniques et antillaises, les pratiques agricoles des colons ont commencé à se concentrer sur l'autosuffisance totale. [1]


Les origines de l'agriculture :

Qu'est-ce qui pourrait être en tête d'une liste des caractéristiques déterminantes de l'espèce humaine ? Alors que notre vision de nous-mêmes pouvait difficilement éviter de mettre en évidence nos réalisations en ingénierie, art, médecine, voyages dans l'espace et autres, dans une évaluation plus impartiale agriculture déplacerait probablement tous les autres prétendants à la première place. La plupart des autres réalisations de l'humanité ont découlé de celle-ci. Presque sans exception, tous les habitants de la planète vivent aujourd'hui de l'agriculture. À quelques exceptions près, aucune autre espèce n'est paysanne. La quasi-totalité des terres arables du monde sont cultivées. Pourtant, l'agriculture a commencé il y a quelques milliers d'années, bien après l'apparition des humains anatomiquement modernes.

Compte tenu du rythme et de l'ampleur de cette révolution de la biologie humaine, il est assez extraordinaire qu'il n'existe pas de modèle généralement accepté expliquant l'origine de l'agriculture. En effet, un éventail croissant d'arguments au cours des dernières années a suggéré que l'agriculture, loin d'être une étape naturelle et ascendante, a en fait conduit généralement à une qualité de vie inférieure. Les chasseurs-cueilleurs font généralement moins de travail pour la même quantité de nourriture, sont en meilleure santé et sont moins sujets à la famine que les agriculteurs primitifs (Lee & DeVore 1968, Cohen 1977, 1989). Une évaluation biologique de ce que l'on a appelé le casse-tête de l'agriculture pourrait le formuler en termes éthologiques simples : pourquoi ce comportement (l'agriculture) a-t-il été renforcé (et donc sélectionné) s'il n'offrait pas de récompenses adaptatives dépassant celles de la chasse-cueillette ou de la recherche de nourriture économies ?

Ce paradoxe est responsable d'une profusion de modèles sur l'origine de l'agriculture. « Peu de sujets de la préhistoire », notait Hayden (1990) « ont suscité autant de discussions et ont abouti à si peu de réponses satisfaisantes que la tentative d'expliquer pourquoi les chasseurs-cueilleurs ont commencé à cultiver des plantes et à élever des animaux. Le changement climatique, la pression démographique, le sédentisme, la concentration des ressources due à la désertification, les hormones des filles, la propriété foncière, les génies, les rituels, les conflits d'horaire, les coups génétiques aléatoires, la sélection naturelle, l'adaptation à large spectre et les retraits multicausaux de l'explication ont tous été proposés pour expliquer la domestication. Tous ont des défauts majeurs. les données ne s'accordent bien avec aucun de ces modèles.

Les découvertes récentes de substances potentiellement psychoactives dans certains produits agricoles - céréales et lait - suggèrent une perspective supplémentaire sur l'adoption de l'agriculture et les changements de comportement (« civilisation ») qui l'ont suivi. Dans cet article, nous passons en revue les preuves des propriétés médicamenteuses de ces aliments, puis montrons comment ils peuvent aider à résoudre l'énigme biologique que nous venons de décrire.

L'émergence de l'agriculture et de la civilisation au néolithique

Le passage à l'agriculture

Il y a environ 10 000 ans, des groupes de personnes dans plusieurs régions du monde ont commencé à abandonner le mode de vie de recherche de nourriture qui avait été un succès, universel et pratiquement inchangé depuis des millénaires (Lee & DeVore 1968). Ils ont commencé à cueillir, puis à cultiver et à s'installer autour, des parcelles d'herbes céréalières et à domestiquer les animaux pour la viande, le travail, les peaux et autres matériaux, et le lait.

L'agriculture, basée principalement sur le blé et l'orge, est apparue pour la première fois au Moyen-Orient et s'est rapidement étendue à l'Asie occidentale, à l'Égypte et à l'Europe. Les premières civilisations reposaient toutes principalement sur l'agriculture céréalière. La culture des arbres fruitiers a commencé trois mille ans plus tard, toujours au Moyen-Orient, et les légumes et autres cultures ont suivi (Zohari 1986). La culture du riz a commencé en Asie il y a environ 7000 ans (Stark 1986).

À ce jour, pour la plupart des gens, les deux tiers de l'apport en protéines et en calories sont dérivés des céréales. (En Occident, au XXe siècle, la consommation de céréales a légèrement diminué au profit de la viande, du sucre, des matières grasses, etc.) Les contributions respectives de chaque céréale à la production mondiale totale actuelle sont : le blé (28 %), le maïs/ maïs (27 pour cent), riz (25 pour cent), orge (10 pour cent), autres (10 pour cent) (Pedersen et al. 1989).

Le changement de régime alimentaire dû à l'agriculture

L'alimentation humaine moderne est très différente de celle des primates étroitement apparentés et, presque certainement, des premiers hominidés (Gordon 1987). Bien qu'il y ait une controverse sur ce que les humains mangeaient avant le développement de l'agriculture, le régime alimentaire ne comprenait certainement pas de céréales et de lait en quantités appréciables. Les fosses de stockage et les outils de transformation nécessaires à une consommation importante de céréales n'apparaissent qu'au Néolithique (Washburn & Lancaster 1968). Les produits laitiers n'étaient pas disponibles en quantité avant la domestication des animaux.

Le régime alimentaire des premiers hominidés (il y a environ quatre millions d'années), évoluant comme il l'a fait à partir de celui des ancêtres des primates, se composait principalement de fruits, de noix et d'autres matières végétales, et d'un peu de viande - des articles qui pouvaient être recherchés et mangés avec peu ou aucun traitement. Comparaisons de l'anatomie des primates et des hominidés fossiles, et des types et de la répartition des plantes consommées crues par les chimpanzés, les babouins et les humains modernes (Peters & O'Brien 1981, Kay 1985), ainsi que l'analyse au microscope des modèles d'usure sur les dents fossiles ( Walker 1981, Peuch et al.1983) suggèrent que les australopithèques étaient « principalement des omnivores frugivores avec un régime alimentaire similaire à celui des chimpanzés modernes » (Susman 1987 :171).

Le régime alimentaire des humains pré-agricoles mais anatomiquement modernes (à partir d'il y a 30 000 ans) s'est quelque peu diversifié, mais se composait toujours de viande, de fruits, de noix, de légumineuses, de racines et de tubercules comestibles, la consommation de graines de céréales n'augmentant que vers la fin du Pléistocène ( par exemple Constantini 1989 et les chapitres suivants dans Harris et Hillman 1989).

L'essor de la civilisation

Quelques milliers d'années après l'adoption de l'agriculture céréalière, l'ancien style d'organisation sociale des chasseurs-cueilleurs a commencé à décliner. De grandes sociétés hiérarchisées apparaissent, centrées autour des villages puis des villes. Avec la montée de la civilisation et de l'État sont venus les classes socio-économiques, la spécialisation des emplois, les gouvernements et les armées.

La taille des populations vivant en unités coordonnées s'est considérablement élevée au-dessus des normes pré-agricoles. Alors que les chasseurs-cueilleurs vivaient en bandes égalitaires et autonomes d'environ 20 personnes étroitement liées, avec tout au plus un niveau d'organisation tribal au-dessus, les premiers villages agricoles comptaient de 50 à 200 habitants et les premières villes de 10 000 ou plus. Les gens « ont dû apprendre à maîtriser des forces profondément enracinées qui travaillaient à l'augmentation des conflits et de la violence dans de grands groupes » (Pfeiffer 1977 :438).

L'agriculture et la civilisation signifiaient la fin de la recherche de nourriture - une méthode de subsistance avec des objectifs et des récompenses à court terme - et le début (pour la plupart) d'un travail ardu régulier, orienté vers les gains futurs et les exigences des supérieurs. « Avec l'arrivée de grandes communautés, les familles ne cultivaient plus la terre pour elles-mêmes et leurs seuls besoins immédiats, mais pour les étrangers et pour l'avenir. Ils travaillaient toute la journée au lieu de quelques heures par jour, comme l'avaient fait les chasseurs-cueilleurs. Il y avait des horaires, des quotas, des surveillants et des punitions pour le relâchement » (Pfeiffer 1977 :21).

Expliquer les origines de l'agriculture et de la civilisation

Les phénomènes de l'agriculture et de la civilisation humaines sont intéressants sur le plan éthologique, car (1) pratiquement aucune autre espèce ne vit de cette façon, et (2) les humains ne vivaient de cette façon que relativement récemment. Pourquoi ce mode de vie a-t-il été adopté et pourquoi est-il devenu dominant dans l'espèce humaine ?

Problèmes expliquant l'agriculture

Jusqu'à ces dernières décennies, la transition vers l'agriculture était considérée comme intrinsèquement progressive : les gens apprenaient que la plantation de graines faisait pousser les cultures, et cette nouvelle source de nourriture améliorée a conduit à une population plus importante, à une vie agricole et urbaine sédentaire, à plus de temps libre et donc à une spécialisation. , écriture, avancées technologiques et civilisation. Il est maintenant clair que l'agriculture a été adoptée malgré certains inconvénients de ce mode de vie (e.g. Flannery 1973, Henry 1989). Il existe une littérature abondante (par exemple, Reed 1977), non seulement sur la façon dont l'agriculture a commencé, mais aussi pourquoi. Des études paléopathologiques et comparatives montrent que la santé s'est détériorée dans les populations qui ont adopté l'agriculture céréalière, ne revenant aux niveaux pré-agricoles qu'à l'époque moderne. Ceci est en partie attribuable à la propagation de l'infection dans les villes surpeuplées, mais est largement dû à une baisse de la qualité de l'alimentation qui a accompagné la culture céréalière intensive (Cohen 1989). Les gens dans de nombreuses régions du monde sont restés des chasseurs-cueilleurs jusqu'à tout récemment, bien qu'ils soient tout à fait conscients de l'existence et des méthodes de l'agriculture, ils ont refusé de l'entreprendre (Lee & DeVore 1968, Harris 1977). Cohen (1977 :141) a résumé le problème en posant la question suivante : « Si l'agriculture ne fournit ni une meilleure alimentation, ni une plus grande fiabilité alimentaire, ni une plus grande facilité, mais semble à l'inverse fournir une alimentation plus pauvre, moins fiable, avec des coûts de main-d'œuvre plus élevés, pourquoi quelqu'un devient-il un fermier?'

De nombreuses explications ont été proposées, généralement centrées sur un facteur particulier qui a forcé l'adoption de l'agriculture, comme la pression environnementale ou démographique (pour les revues, voir Rindos 1984, Pryor 1986, Redding 1988, Blumler & Byrne 1991). Chacun de ces modèles a fait l'objet de nombreuses critiques et il n'existe à l'heure actuelle aucune explication généralement acceptée de l'origine de l'agriculture.

Problèmes expliquant la civilisation

Un problème similaire est posé par l'apparition post-agricole, partout dans le monde, des villes et des États, et là encore il existe une abondante littérature consacrée à l'expliquer (par exemple Claessen & Skalnik 1978). Les principaux changements de comportement apportés par l'adoption du mode de vie civilisé demandent des explications. Bledsoe (1987 : 136) a résumé la situation ainsi :

« Il n'y a jamais eu et il n'y a pas encore d'accord sur la nature et la signification de l'essor de la civilisation. Les questions posées par le problème sont simples, mais fondamentales. Comment est née la civilisation ? Quelle animosité a poussé l'homme à renoncer à l'indépendance, à l'intimité et à l'invariabilité de l'existence tribale pour la complexité politique beaucoup plus grande et plus impersonnelle que nous appelons l'État ? Quelles forces ont fusionné pour initier la mutation qui a lentement transformé les sociétés nomades en villes populeuses avec des mélanges ethniques, des sociétés stratifiées, des économies diversifiées et des formes culturelles uniques ? L'avènement de la civilisation était-il le résultat inévitable de l'évolution sociale et des lois naturelles du progrès ou l'homme était-il le concepteur de son propre destin ? Les innovations technologiques ont-elles été la force motrice ou s'agissait-il d'un facteur intangible tel que la religion ou le progrès intellectuel ? »

Avec une très bonne approximation, chaque civilisation qui a vu le jour avait l'agriculture céréalière comme base de subsistance, et partout où les céréales étaient cultivées, la civilisation est apparue. Certaines hypothèses ont lié les deux. Par exemple, la « théorie hydraulique » de Wittfogel (1957) postulait que l'irrigation était nécessaire pour l'agriculture et que l'État était à son tour nécessaire pour organiser l'irrigation. Mais toutes les civilisations n'ont pas utilisé l'irrigation, et d'autres facteurs possibles (par exemple, l'emplacement des vallées fluviales, la guerre, le commerce, la technologie, la religion et la pression écologique et démographique) n'ont pas conduit à un modèle universellement accepté.

Propriétés pharmacologiques des céréales et du lait

Des recherches récentes sur la pharmacologie des aliments présentent une nouvelle perspective sur ces problèmes.

Exorphines : substances opioïdes dans les aliments

Poussés par un lien possible entre l'alimentation et la maladie mentale, plusieurs chercheurs à la fin des années 1970 ont commencé à enquêter sur la présence de substances semblables à des drogues dans certains aliments courants.

Dohan (1966, 1984) et Dohan et al. (1973, 1983) ont découvert que les symptômes de la schizophrénie étaient quelque peu soulagés lorsque les patients recevaient un régime sans céréales ni lait. Il a également découvert que les personnes atteintes de la maladie cœliaque - celles qui sont incapables de manger du gluten de blé en raison d'une perméabilité intestinale supérieure à la normale - étaient statistiquement susceptibles de souffrir également de schizophrénie. Des recherches menées dans certaines communautés du Pacifique ont montré que la schizophrénie ne s'est répandue dans ces populations qu'après qu'elles se soient « partiellement occidentalisées et consommées du blé, de la bière d'orge et du riz » (Dohan 1984).

Des groupes dirigés par Zioudrou (1979) et Brantl (1979) ont trouvé une activité opioïde dans le blé, le maïs et l'orge (exorphines), et le lait bovin et humain (casomorphine), ainsi qu'une activité stimulatrice dans ces protéines, et dans l'avoine, le seigle et le soja. . L'exorphine des céréales est beaucoup plus forte que la casomorphine bovine, qui à son tour est plus forte que la casomorphine humaine. Mycroft et al. (1982, 1987) ont trouvé un analogue de MIF-1, un peptide dopaminergique naturel, dans le blé et le lait. Il ne se produit dans aucune autre protéine exogène. (Dans les sections suivantes, nous utilisons le terme exorphine pour couvrir les exorphines, la casomorphine et l'analogue MIF-1. Bien que les substances opioïdes et dopaminergiques fonctionnent de différentes manières, elles sont toutes deux « gratifiantes », et donc plus ou moins équivalentes pour nos besoins.)

Depuis lors, les chercheurs ont mesuré la puissance des exorphines, les montrant comparables à la morphine et à l'enképhaline (Heubner et al. 1984), déterminé leurs séquences d'acides aminés (Fukudome & Yoshikawa 1992), et montré qu'elles sont absorbées par l'intestin (Svedburg et al.1985) et peuvent produire des effets tels que l'analgésie et la réduction de l'anxiété qui sont généralement associés aux opioïdes dérivés du pavot (Greksch et al.1981, Panksepp et al.1984). Mycroft et al. ont estimé que 150 mg de l'analogue MIF-1 pourraient être produits par une consommation quotidienne normale de céréales et de lait, notant que de telles quantités sont actives par voie orale, et que la moitié de cette quantité « a induit des altérations de l'humeur chez des sujets cliniquement déprimés » (Mycroft et al. 1982 :895). (Pour des revues détaillées, voir Gardner 1985 et Paroli 1988.)

Les drogues de dépendance les plus courantes sont soit des opioïdes (par exemple, l'héroïne et la morphine) soit des dopaminergiques (par exemple, la cocaïne et les amphétamines), et agissent en activant les centres de récompense dans le cerveau.Par conséquent, nous pouvons nous demander si ces résultats signifient que les céréales et le lait sont chimiquement gratifiants ? Les humains sont-ils d'une manière ou d'une autre « accros » à ces aliments ?

Problèmes d'interprétation de ces résultats

La discussion sur les effets comportementaux possibles des exorphines, en quantités alimentaires normales, a été prudente. Les interprétations de leur signification ont été de deux types :

où un pathologique l'effet est proposé (généralement par des chercheurs sur les céréales, et lié aux découvertes de Dohan, bien que voir aussi Ramabadran & Bansinath 1988), et

où un Naturel la fonction est proposée (par des chercheurs sur le lait, qui suggèrent que la casomorphine peut aider à créer des liens mère-nourrisson ou réguler autrement le développement du nourrisson).

Nous pensons qu'il ne peut y avoir de fonction naturelle pour l'ingestion d'exorphines par les humains adultes. Il se peut que le désir de trouver une fonction naturelle ait entravé l'interprétation (tout en attirant l'attention sur le lait, où une fonction naturelle est plus plausible) . Il est peu probable que les humains soient adaptés à un apport important d'exorphines de céréales, car la domination moderne des céréales dans l'alimentation est tout simplement trop récente. Si l'exorphine se trouve dans le lait de vache, alors elle peut avoir une fonction naturelle pour les vaches de la même manière, les exorphines dans le lait humain peuvent avoir une fonction pour les nourrissons. Mais que ce soit le cas ou non, les humains adultes ne boivent naturellement aucun lait, de sorte qu'aucune fonction naturelle ne pourrait s'appliquer à eux.

Nos sympathies vont donc avec l'interprétation pathologique des exorphines, selon laquelle les substances trouvées dans les céréales et le lait sont considérées comme des anomalies alimentaires modernes qui peuvent provoquer la schizophrénie, la maladie cœliaque ou autre. Mais ce sont des maladies graves que l'on trouve en minorité. Les exorphines peuvent-elles avoir un effet sur l'humanité en général ?

Autres preuves des effets « de type médicamenteux » de ces aliments

Recherche en alimentation allergie a montré que des quantités normales de certains aliments peuvent avoir des effets pharmacologiques, y compris comportementaux. De nombreuses personnes développent des intolérances à certains aliments. Divers aliments sont impliqués, et une variété de symptômes est produite. (Le terme « intolérance » plutôt qu'allergie est souvent utilisé, car dans de nombreux cas, le système immunitaire peut ne pas être impliqué (Egger 1988 :159). Certains symptômes d'intolérance, tels que l'anxiété, la dépression, l'épilepsie, l'hyperactivité et les épisodes schizophréniques fonction (Egger 1988, Scadding & Brostoff 1988).

Radcliffe (1982, cité en 1987 : 808) a répertorié les aliments en cause, par ordre décroissant de fréquence, dans un essai portant sur 50 personnes : blé (plus de 70 % des sujets y ont réagi d'une manière ou d'une autre), lait (60 % des cent), œuf (35 pour cent), maïs, fromage, pomme de terre, café, riz, levure, chocolat, thé, agrumes, avoine, porc, plie, canne et bœuf (10 pour cent). Il s'agit pratiquement d'une liste d'aliments qui sont devenus courants dans l'alimentation suite à l'adoption de l'agriculture, par ordre de prévalence. Les symptômes les plus souvent atténués par le traitement étaient les changements d'humeur (> 50 %) suivis de maux de tête, de troubles musculo-squelettiques et respiratoires.

L'un des phénomènes les plus frappants de ces études est que les patients présentent souvent des fringales, une dépendance et des symptômes de sevrage à l'égard de ces aliments (Egger 1988 :170, citant Randolph 1978 voir aussi Radcliffe 1987 :808-10, 814, Kroker 1987 :856, 864, Sprague & Milam 1987 : 949, 953, Wraith 1987 : 489, 491). Brostoff et Gamlin (1989 : 103) ont estimé que 50 pour cent des patients souffrant d'intolérance ont envie d'aliments qui leur causent des problèmes et éprouvent des symptômes de sevrage lorsqu'ils excluent ces aliments de leur alimentation. Les symptômes de sevrage sont similaires à ceux associés aux toxicomanies (Radcliffe 1987 :808). La possibilité que des exorphines soient impliquées a été notée (Bell 1987 :715), et Brostoff et Gamlin concluent (1989 :230) :

'. les résultats jusqu'à présent suggèrent qu'ils pourraient influencer notre humeur. Il n'est certainement pas question pour quiconque de « planer » sur un verre de lait ou une tranche de pain - les quantités impliquées sont trop faibles pour cela - mais ces aliments peuvent induire un sentiment de confort et de bien-être, comme le disent souvent les patients intolérants alimentaires ils font. Il existe également d'autres peptides de type hormonal dans les digestions partielles d'aliments, qui pourraient avoir d'autres effets sur le corps.

Il n'y a aucune possibilité que l'envie de ces aliments ait quoi que ce soit à voir avec la notion populaire selon laquelle le corps dit au cerveau ce dont il a besoin à des fins nutritionnelles. Ces aliments n'étaient pas importants dans l'alimentation humaine avant l'agriculture, et de grandes quantités d'entre eux ne peuvent pas être nécessaires pour la nutrition. En fait, la façon standard de traiter l'intolérance alimentaire est de supprimer les éléments incriminés de l'alimentation du patient.

Une interprétation suggérée de la recherche sur les exorphines

Mais quels sont les effets de ces aliments sur les gens normaux ? Bien que les exorphines ne puissent pas avoir une fonction physiologique naturellement sélectionnée chez l'homme, cela ne signifie pas qu'elles ont non effet. La recherche sur l'intolérance alimentaire suggère que les céréales et le lait, en quantités alimentaires normales, sont capables d'affecter le comportement de nombreuses personnes. Et si des effets comportementaux graves chez les schizophrènes et les coeliaques peuvent être causés par une absorption de peptides supérieure à la normale, alors des effets plus subtils, qui peuvent même ne pas être considérés comme anormaux, pourraient être produits chez les personnes en général.

Les preuves présentées jusqu'à présent suggèrent l'interprétation suivante.

L'ingestion de céréales et de lait, en quantités alimentaires modernes normales par des humains normaux, active les centres de récompense dans le cerveau. Les aliments qui étaient courants dans l'alimentation avant l'agriculture (fruits, etc.) n'ont pas cette propriété pharmacologique. Les effets des exorphines sont qualitativement les mêmes que ceux produits par d'autres médicaments opioïdes et/ou dopaminergiques, c'est-à-dire récompense, motivation, réduction de l'anxiété, du sentiment de bien-être et peut-être même de la dépendance. Bien que les effets d'un repas typique soient quantitativement inférieurs à ceux de doses de ces médicaments, la plupart des humains modernes en font l'expérience plusieurs fois par jour, chaque jour de leur vie d'adulte.

Hypothèse : les exorphines et l'origine de l'agriculture et de la civilisation

Lorsque ce scénario des pratiques alimentaires humaines est envisagé à la lumière du problème de l'origine de l'agriculture décrit plus haut, il suggère une hypothèse qui combine les résultats de ces pistes de recherche.

Les chercheurs sur l'exorphine, manquant peut-être d'une perspective historique à long terme, n'ont généralement pas étudié la possibilité que ces aliments ressemblent vraiment à des médicaments, et ont plutôt recherché sans succès la fonction naturelle de l'exorphine. L'adoption de l'agriculture céréalière et l'essor ultérieur de la civilisation n'ont pas été expliqués de manière satisfaisante, car les changements de comportement qui les sous-tendent n'ont aucune base adaptative évidente.

Ces problèmes non résolus et jusqu'à présent sans rapport peuvent en fait se résoudre les uns les autres. La réponse, nous suggérons, est la suivante : les céréales et les produits laitiers ne sont pas des aliments humains naturels, mais sont plutôt préférés car ils contiennent des exorphines. Cette récompense chimique fut l'incitation à l'adoption de l'agriculture céréalière au néolithique. L'auto-administration régulière de ces substances a facilité les changements de comportement qui ont conduit à l'apparition ultérieure de la civilisation.

C'est la séquence d'événements que nous envisageons.

Le changement climatique à la fin de la dernière période glaciaire a entraîné une augmentation de la taille et de la concentration des parcelles de céréales sauvages dans certaines régions (Wright 1977). Les grandes quantités de céréales nouvellement disponibles incitaient à essayer d'en faire un repas. Les personnes qui ont réussi à manger des quantités importantes de graines de céréales ont découvert les propriétés enrichissantes des exorphines qu'elles contiennent. Des méthodes de traitement telles que le broyage et la cuisson ont été développées pour rendre les céréales plus comestibles. Plus ils pouvaient être préparés, plus ils étaient consommés et plus la récompense d'exorphine devenait importante pour plus de gens.

Au début, des parcelles de céréales sauvages étaient protégées et récoltées. Plus tard, la terre a été défrichée et les graines ont été plantées et entretenues, pour augmenter la quantité et la fiabilité de l'approvisionnement. Les exorphines ont attiré les gens à s'installer autour des champs de céréales, abandonnant leur mode de vie nomade, et leur ont permis de faire preuve de tolérance plutôt que d'agressivité alors que les densités de population augmentaient dans ces nouvelles conditions.

Bien que ce soit, selon nous, la présence d'exorphines qui ait fait que les céréales (et non une alternative déjà répandue dans l'alimentation) soient les principaux cultigènes précoces, cela ne signifie pas que les céréales ne sont que des « médicaments ». Ils sont des aliments de base depuis des milliers d'années et ont clairement une valeur nutritionnelle. Cependant, traiter les céréales comme « juste de la nourriture » ​​conduit à des difficultés pour expliquer pourquoi quelqu'un s'est donné la peine de les cultiver. Le fait que la santé globale ait diminué lorsqu'ils ont été incorporés dans l'alimentation suggère que leur remplacement rapide, presque total, d'autres aliments était davantage dû à une récompense chimique qu'à des raisons nutritionnelles.

Il est à noter que la mesure dans laquelle les premiers groupes se sont civilisés est en corrélation avec le type d'agriculture qu'ils pratiquaient. C'est-à-dire que les principales civilisations (en Asie du Sud-Ouest, en Europe, en Inde, à l'Est et dans certaines parties de l'Asie centrale du Sud-Est et dans certaines parties de l'Amérique du Nord et du Sud, l'Égypte, l'Éthiopie et certaines parties de l'Afrique tropicale et occidentale) sont issues de groupes qui pratiquaient les céréales , en particulier le blé, l'agriculture (Bender 1975 :12, Adams 1987 :201, Thatcher 1987 :212). (Les civilisations nomades les plus rares étaient basées sur l'élevage laitier.)

Les groupes qui pratiquaient la végéculture (de fruits, de tubercules, etc.), ou aucune agriculture (en Afrique tropicale et du Sud, en Asie du Nord et centrale, en Australie, en Nouvelle-Guinée et dans le Pacifique, et dans une grande partie de l'Amérique du Nord et du Sud) ne se sont pas civilisés au même mesure.

Ainsi, les grandes civilisations ont en commun que leurs populations étaient de fréquentes ingestions d'exorphines. Nous proposons que les grands états hiérarchiques étaient une conséquence naturelle parmi de telles populations. La civilisation est née parce que la disponibilité fiable et à la demande d'opioïdes alimentaires pour les individus a modifié leur comportement, réduisant l'agressivité et leur a permis de devenir tolérants à la vie sédentaire dans des groupes surpeuplés, d'effectuer un travail régulier et d'être plus facilement subjugués par les dirigeants. Deux classes socio-économiques ont émergé là où auparavant il n'y en avait qu'une (Johnson & Earle 1987:270), établissant ainsi un modèle qui a prévalu depuis cette époque.

Discussion

L'alimentation naturelle et le changement génétique

Certains nutritionnistes nient la notion d'un régime humain naturel pré-agricole au motif que les humains sont omnivores ou se sont adaptés aux aliments agricoles (par exemple, Garn & Leonard 1989 pour le point de vue contraire, voir par exemple Eaton & Konner 1985). Un omnivore, cependant, est simplement un animal qui mange à la fois de la viande et des plantes : il peut encore être assez spécialisé dans ses préférences (les chimpanzés sont un exemple approprié). Un degré d'omnivore chez les premiers humains pourrait les avoir pré-adaptés à certains des nutriments contenus dans les céréales, mais pas aux exorphines, qui sont uniques aux céréales.

Les taux différentiels de carence en lactase, de maladie cœliaque et de favisme (l'incapacité à métaboliser les fèves) parmi les groupes raciaux modernes s'expliquent généralement comme le résultat d'une adaptation génétique variable aux régimes post-agricoles (Simopoulos 1990 : 27-9), et cela pourrait être considéré comme impliquant également une certaine adaptation aux exorphines. Nous soutenons que peu ou pas d'adaptation s'est produite, pour deux raisons : premièrement, la recherche sur les allergies indique que ces aliments provoquent encore des réactions anormales chez de nombreuses personnes, et que la susceptibilité est variable au sein et entre les populations, indiquant que l'adaptation différentielle n'est pas la seul facteur en cause. Deuxièmement, la fonction des adaptations mentionnées est de permettre aux humains de digérer ces aliments, et s'il s'agit d'adaptations, elles sont apparues parce qu'elles conféraient un avantage de survie. Mais la susceptibilité aux effets gratifiants des exorphines conduirait-elle à un succès de reproduction inférieur ou supérieur ? On s'attendrait en général à ce qu'un animal avec une réserve de médicaments se comporte de manière moins adaptative et réduise ainsi ses chances de survie. Mais notre modèle montre comment l'ingestion généralisée d'exorphines chez l'homme a entraîné une augmentation de la population. Et une fois que la civilisation était la norme, la non-sensibilité aux exorphines aurait signifié ne pas s'adapter à la société. Ainsi, s'il peut y avoir une adaptation au contenu nutritionnel des céréales, il y aura peu ou pas d'exorphines. Dans tous les cas, alors que les humains contemporains peuvent profiter des avantages d'une certaine adaptation aux régimes agricoles, ceux qui ont réellement fait le changement il y a dix mille ans ne l'ont pas fait.

Autres origines « non nutritionnelles » des modèles agricoles

Nous ne sommes pas les premiers à suggérer un motif non nutritionnel pour l'agriculture précoce. Hayden (1990) a fait valoir que les premiers cultes et articles commerciaux avaient plus de valeur de prestige que d'utilité, et a suggéré que l'agriculture a commencé parce que les puissants utilisaient ses produits pour des festins compétitifs et l'accumulation de richesse. Braidwood et al. (1953) et plus tard Katz et Voigt (1986) ont suggéré que l'incitation à la culture des céréales était la production de bière alcoolisée :

« A quelles conditions la consommation d'une ressource végétale sauvage serait-elle suffisamment importante pour conduire à un changement de comportement (expérimentations de culture) afin d'assurer un approvisionnement adéquat de cette ressource ? Si les céréales sauvages étaient en fait une partie mineure de l'alimentation, tout argument fondé sur le besoin calorique est affaibli. Nous soutenons que le désir d'alcool constituerait un besoin psychologique et social perçu qui pourrait facilement inciter à des changements de comportement de subsistance » (Katz & Voigt 1986 :33).

Ce point de vue est clairement compatible avec le nôtre. Cependant, il peut y avoir des problèmes avec une hypothèse alcoolique : la bière peut être apparue après le pain et d'autres produits céréaliers, et avoir été consommée moins largement ou moins fréquemment (Braidwood et al. 1953). Contrairement à l'alcool, les exorphines sont présentes dans tous ces produits. Cela rend les arguments en faveur de la récompense chimique en tant que motif de l'agriculture beaucoup plus forts. Le pavot à opium était aussi un des premiers cultigènes (Zohari 1986). L'exorphine, l'alcool et l'opium sont avant tout gratifiants (par opposition aux drogues typiquement hallucinogènes utilisées par certains chasseurs-cueilleurs) et c'est la récompense artificielle qui est nécessaire, prétendons-nous, à la civilisation. Peut-être que tous les trois ont contribué à faire émerger un comportement civilisé.

Les céréales ont des qualités importantes qui les différencient de la plupart des autres médicaments. Ils sont une source de nourriture ainsi qu'un médicament, et peuvent être stockés et transportés facilement. Ils sont ingérés en petites doses fréquentes (pas de grosses doses occasionnelles) et n'entravent pas la performance au travail chez la plupart des gens. Un désir de drogue, voire des fringales ou un sevrage, peuvent être confondus avec la faim. Ces caractéristiques font des céréales le facilitateur idéal de la civilisation (et peuvent également avoir contribué au long délai de reconnaissance de leurs propriétés pharmacologiques).

Compatibilité, limitations, plus de données nécessaires

Notre hypothèse n'est pas une réfutation des récits existants sur les origines de l'agriculture, mais s'inscrit plutôt à leurs côtés, expliquant pourquoi l'agriculture céréalière a été adoptée malgré ses inconvénients apparents et comment elle a conduit à la civilisation.

Des lacunes dans nos connaissances sur les exorphines limitent la généralité et la force de nos affirmations. On ne sait pas si le riz, le mil et le sorgho, ni les espèces de graminées récoltées par les chasseurs-cueilleurs africains et australiens, contiennent des exorphines. Nous devons être sûrs que les aliments de base pré-agricoles ne contiennent pas d'exorphines en quantités similaires à celles des céréales. Nous ne savons pas si la domestication a affecté le contenu ou la puissance des exorphines. Un test de notre hypothèse par corrélation du régime alimentaire et du degré de civilisation dans différentes populations nécessitera une connaissance quantitative des effets comportementaux de tous ces aliments.

Nous ne commentons pas l'origine de l'agriculture non céréalière, ni pourquoi certains groupes ont utilisé une combinaison de recherche de nourriture et d'agriculture, sont passés de l'agriculture à la recherche de nourriture, ou n'ont pas cultivé du tout. L'agriculture céréalière et la civilisation sont devenues, au cours des dix mille dernières années, pratiquement universelles. La question n'est donc pas de savoir pourquoi ils se sont produits ici et pas là, mais pourquoi ils ont mis plus de temps à s'établir dans certains endroits que dans d'autres. En tout temps et en tout lieu, la récompense chimique et l'influence des civilisations utilisant déjà des céréales ont pesé en faveur de l'adoption de ce mode de vie, les inconvénients de l'agriculture ont pesé contre elle, et des facteurs tels que le climat, la géographie, la qualité du sol et la disponibilité des cultigènes ont influencé le résultat. . Il existe une tendance récente aux modèles multi-causaux des origines de l'agriculture (par exemple, Redding 1988, Henry 1989), et les exorphines peuvent être considérées comme simplement un autre facteur de la liste. L'analyse de l'importance relative de tous les facteurs impliqués, à tout moment et en tout lieu, dépasse le cadre de cet article.

Conclusion

«Un animal est une machine de survie pour les gènes qui l'ont construit. Nous aussi, nous sommes des animaux, et nous sommes aussi des machines de survie pour nos gènes. C'est la théorie. Dans la pratique, cela a beaucoup de sens lorsque nous regardons les animaux sauvages. C'est très différent quand on se regarde. Nous semblons être une exception sérieuse à la loi darwinienne. Il n'est évidemment pas vrai que la plupart d'entre nous passons notre temps à travailler énergiquement pour la préservation de nos gènes » (Dawkins 1989 : 138).

De nombreux éthologues ont reconnu des difficultés à expliquer le comportement humain civilisé sur des bases évolutives, suggérant dans certains cas que les humains modernes ne se comportent pas toujours de manière adaptative. Pourtant, depuis les débuts de l'agriculture, la population humaine a été multipliée par 1000 : Irons (1990) note que « la croissance démographique n'est pas l'effet attendu d'un comportement inadapté ».

Nous avons examiné les preuves de plusieurs domaines de recherche qui montrent que les céréales et les produits laitiers ont des propriétés similaires à celles des médicaments, et montré comment ces propriétés peuvent avoir été la motivation pour l'adoption initiale de l'agriculture. Nous avons suggéré en outre que l'apport constant d'exorphines facilitait les changements de comportement et la croissance démographique ultérieure de la civilisation, en augmentant la tolérance des gens à (a) vivre dans des conditions sédentaires surpeuplées, (b) consacrer des efforts au profit de non-parents, et (c) jouer un rôle subalterne dans une vaste structure sociale hiérarchique.

Les céréales sont toujours des aliments de base et les méthodes de récompense artificielle se sont diversifiées depuis cette époque, y compris aujourd'hui un large éventail d'artefacts culturels pharmacologiques et non pharmacologiques dont la fonction, éthologiquement parlant, est de fournir une récompense sans avantage adaptatif. Il semble donc raisonnable de suggérer que la civilisation n'est pas seulement née de l'auto-administration d'une récompense artificielle, mais qu'elle est maintenue de cette manière parmi les humains contemporains. Par conséquent, un pas vers la résolution du problème de l'explication du comportement humain civilisé pourrait être d'incorporer dans les modèles éthologiques cette distorsion généralisée du comportement par une récompense artificielle.

Les références

Adams, W .M., 1987, Cereals before cities except after Jacobs, in M. Melko & L.R.Scott eds, Les frontières des civilisations dans l'espace et le temps, University Press of America, Lanham.

Bell, I. R., 1987, Effets de l'allergie alimentaire sur le système nerveux central, dans J. Brostoff et S. J. Challacombe, eds, Food allergy and intolerance, Bailliere Tindall, Londres.

Bender, B., 1975, L'agriculture dans la préhistoire : du chasseur-cueilleur au producteur de nourriture, John Baker, Londres.

Bledsoe, W., 1987, Théories des origines de la civilisation, dans M. Melko et L. R. Scott, éds, Les frontières des civilisations dans l'espace et le temps, University Press of America, Lanham.

Blumler, M., & Byrne, R., 1991, La génétique écologique de la domestication et les origines de l'agriculture, Current Anthropology 32 : 2-35.

Braidwood, R.J., Sauer, J.D., Helbaek, H., Mangelsdorf, P.C., Cutler, H.C., Coon, C.S., Linton, R., Steward J. & Oppenheim, A.L., 1953, Symposium : l'homme a-t-il vécu de bière seule ? Anthropologue américain 55 : 515-26.

Brantl, V., Teschemacher, H., Henschen, A. & Lottspeich, F., 1979, Nouveaux peptides opioïdes dérivés de la caséine (bêta-casomorphines), Hoppe-Seyler's Zeitschrift fur Physiologische Chemie 360:1211-6.

Brostoff, J., & Gamlin, L., 1989, Le guide complet des allergies et intolérances alimentaires, Bloomsbury, Londres.

Chang, T. T., 1989, La domestication et la diffusion des riz cultivés, en R.D. Harris et G.C. Hillman, eds, Fourrage et agriculture : l'évolution de l'exploitation des plantes, Unwin Hyman, Londres.

Claessen, H. J. M. & Skalnik P., éds, 1978, The early state, Mouton, La Haye.

Cohen, M. N., 1977, La pression démographique et les origines de l'agriculture : un exemple archéologique de la côte du Pérou, in Reed, C.A., éd., Les origines de l'agriculture, Mouton, La Haye.

Cohen, M. N., 1989, Health and the rise of civilisation, Yale University Press, New Haven.

Constantini, L., 1989, Exploitation des plantes à Grotta dell'Uzzo, Sicile: nouvelles preuves de la transition de la subsistance mésolithique au néolithique dans le sud de l'Europe, in Harris, DR & Hillman, GC, eds, Foraging and farming: the evolution of plant exploitation, Unwin Hyman, Londres.

Dawkins, R., 1989, Darwinism and human purpose, dans Durant, J. R., éd., Human origins, Clarendon Press, Oxford.

Dohan, F., 1966, Céréales et schizophrénie : données et hypothèses, Acta Psychiatrica Scandinavica 42:125-52.

Dohan, F., 1983, Plus sur la maladie cœliaque comme modèle de schizophrénie, Biological Psychiatry 18:561-4.

Dohan, F. & Grasberger, J., 1973, Relapsed schizophrenics: plus tôt sortie de l'hôpital après un régime sans céréales et sans lait, American Journal of Psychiatry 130:685-8.

Dohan, F., Harper, E., Clark, M., Ratigue, R., & Zigos, V., 1984, Is schizophrenia rare if grain is rare? Psychiatrie Biologique 19 : 385-99.

Eaton, S. B. & Konner, M., 1985, Paleolithic nutrition - a consider of its nature and current implications, New England Journal of Medicine 312: 283-90.

Egger, J., 1988, Les allergies alimentaires et le système nerveux central, dans Reinhardt, D. & Schmidt E., eds, Food allergy, Raven, New York.

Flannery, K. V., 1973, Les origines de l'agriculture, Annual Review of Anthropology 2:271-310.

Fukudome, S., & Yoshikawa, M., 1992, Peptides opioïdes dérivés du gluten de blé : leur isolement et caractérisation, FEBS Letters 296:107-11.

Gardner, M. L. G., 1985, Production de peptides pharmacologiquement actifs à partir d'aliments dans l'intestin. dans Hunter, J. & Alun-Jones, V., eds, Food and the gut, Bailliere Tindall, Londres.

Gam, S. M. & Leonard, W. R., 1989, Que mangeaient nos ancêtres ? Revues nutritionnelles 47:337 45.

Gordon, K. D., 1987, Perspectives évolutionnistes sur l'alimentation humaine, dans Johnston, F., éd. Nutritional Anthropology, Alan R. Liss, New York.

Greksch, G., Schweiger C., Matthies, H., 1981, Preuve de l'activité analgésique de la bêta-casomorphine chez le rat, Neuroscience Letters 27:325

Harlan, J. R., 1986, La domestication des plantes : origines diffuses et diffusion, in Barigozzi, G., éd., L'origine et la domestication des plantes cultivées, Elsevier, Amsterdam.

Harris, D. R., 1977, Voies alternatives vers l'agriculture, dans Reed, C. A., éd., Les origines de l'agriculture, Mouton, La Haye.

Harris, D. R. & Hillman, G. C., eds, 1989, Foraging and farming: the evolution of plant exploitation, Unwin Hyman, London.

Hayden, B., 1990, Nimrods, piscators, plumeuses et planteurs : l'émergence de la production alimentaire, Journal of Anthropological Archaeology 9:31-69.

Henry, D. O., 1989, From foraging to agriculture: the Levant at the end of the ice age, University of Pennsylvania Press, Philadelphie.

Heubner, F., Liebeman, K., Rubino, R. & Wall, J., 1984, Démonstration d'une activité élevée de type opioïde dans des peptides isolés à partir d'hydrolysats de gluten de blé, Peptides 5:1139-47.

Irons, W., 1990, Rendons notre perspective plus large plutôt que plus étroite, Ethology and Sociobiology 11 : 361-74

Johnson, A. W. & Earle, T., 1987, L'évolution des sociétés humaines : du groupe de recherche de nourriture à l'état agraire, Stanford University Press, Stanford.

Katz, S.H. & Voigt, M.M., 1986, Bread and beer: the early use of cereals in the human diet, Expedition 28:23-34.

Kay, R. F., 1985, Dental Evidence for the diet of Australopithecus, Annual Review of Anthropology 14:315 41.

Kroker, G. F., 1987, Candiose chronique et allergie, dans Brostoff, J. & Challacombe, S.J., eds, Food allergy and intolerance, Bailliere Tindall, London.

Lee, R.B. & DeVore, I., 1968, Problems in the study of hunters and cueilleurs, in Lee, R.B. & DeVore, I., eds, Man the hunter, Aldine, Chicago.

Mycroft, F.J., Wei, E.T., Bernardin, J.E. & Kasarda, D.D., 1982, Séquences de type MIF dans les protéines du lait et du blé, New England Journal of Medicine 301:895.

Mycroft, F.J., Bhargava, H.N. & Wei, E.T., 1987, Activités pharmacologiques des analogues de MIF-1 Pro-Leu-Gly, Tyr-Pro-Leu-Gly et pareptide, Peptides 8:1051-5.

Panksepp, J., Normansell, L., Siviy, S., Rossi, J. & Zolovick, A., 1984, Les casomorphines réduisent la détresse de séparation chez les poussins, Peptides 5:829-83.

Paroli, E., 1988, Peptides opioïdes de l'alimentation (les exorphines), Revue mondiale de la nutrition et de la diététique 55:58-97.

Pedersen, B., Knudsen, K. E. B. & Eggum, B. 0., 1989, Valeur nutritive des produits céréaliers en mettant l'accent sur l'effet de la mouture, Revue mondiale de la nutrition et de la diététique 60:1-91.

Peters, C. R. & O'Brien, E. M., 1981, The early hominid plant-food niche: insights from an analysis of plant exploitation by Homo, Pan, and Papio in Eastern and Southern Africa, Current Anthropology 22:127-40.

Peuch, P., Albertini, H. & Serratrice, C., 1983, Micro-usure dentaire et modèles alimentaires chez les premiers hominidés de Laetoli, Hadar et Olduvai, Journal of Human Evolution 12:721-9.

Pfeiffer, J. E., 1977, L'émergence de la société : une préhistoire de l'establishment, McGraw Hill, New York.

Pryor, F. L., 1986, L'adoption de l'agriculture : quelques preuves théoriques et empiriques, American Anthropologist 88:879-97.

Radcliffe, M. J., 1987, Utilisation diagnostique des régimes alimentaires, dans Brostoff, J. & Challacombe, S. J., eds, Food allergy and intolerance, Bailliere Tindall, Londres.

Ramabadran, K. & Bansinath, M., 1988, Peptides opioïdes du lait comme cause possible du syndrome de mort subite du nourrisson, hypothèses médicales 27:181-7.

Randolph, T. G., 1978, Adaptation spécifique, dans Annals of Allergy 40:333-45

Redding, R., 1988, Une explication générale du changement de subsistance de la chasse et de la cueillette à la production alimentaire, Journal of Anthropological Archaeology 7:56-97.

Reed, C. A., éd., 1977, Les origines de l'agriculture, Mouton, La Haye.

Rindos, D., 1984, Les origines de l'agriculture : une perspective évolutionniste, Academic Press, Orlando.

Scadding, G. K. & Brostoff, J., 1988, Le traitement diététique des allergies alimentaires, dans Reinhardt, D. & Schmidt, E., eds, Food allergy, Raven, New York.

Simopoulos, A. P., 1990, Génétique et nutrition : ou ce que vos gènes peuvent vous dire sur la nutrition, Revue mondiale de la nutrition et de la diététique 63:25-34.

Sprague, D. E. & Milam, M. J., 1987, Concept of an environment unit, in Brostoff, J. & .Challacombe, S. J., eds, Food allergy and intolerance, Bailliere Tindall, London.

Stark, B.L., 1986, Origins of food production in the New World, in Meltzer, D.J., Fowler, D.D. & Sabloff, J.A., eds, American archeology past and future, Smithsonian Institute Press, Washington.

Susman, R. L., 1987, Pygmy chimpanzees and common chimpanzees: models for the behavior ecology of the first hominids, in Kinzey, W. G., ed., The evolution of human behavior: primate models, State University of New York Press, Albany.

Svedburg, J., De Haas, J., Leimenstoll, G., Paul, F. & Teschemacher, H., 1985, Demonstration of betacasomorphine immunoreactive materials in in vitro digests of bovin milk and in small intestinal contents after bovin milk ingestion chez les humains adultes, Peptides 6:825-30.

Thatcher, J. P., 1987, The economic base for civilisation in the New World, in Melko, M. & Scott, L. R., eds, Les frontières des civilisations dans l'espace et le temps, University Press of America, Lanham.

Walker, A., 1981, Hypothèses alimentaires et évolution humaine, Transactions philosophiques de la Royal Society of London B292:57-64.

Washburn, L. & Lancaster, C. S., 1968, L'évolution de la chasse, dans Lee, R. B. & DeVore, I., eds, Man the hunter, Aldine, Chicago.

Wittfogel, K., 1957, Oriental Despotism, Yale University Press, New Haven.

Wraith, D. G., 1987, Asthma, in Brostoff, J. & Challacombe, S. J., eds, Food allergy and intolerance, Bailliere Tindall, London.

Wright, H. E., 1977, Changements environnementaux et origine de l'agriculture au Proche-Orient, in Reed, C. A., éd., Les origines de l'agriculture, Mouton, La Haye.

Zioudrou, C., Streaty, R. & Klee, W., 1979, Peptides opioïdes dérivés de protéines alimentaires : les exorphines Journal of Biological Chemistry 254:244S9.

Zohari, D., 1986, L'origine et la diffusion précoce de l'agriculture dans l'Ancien Monde, in Barigozzi, G., éd., L'origine et la domestication des plantes cultivées, Elsevier, Amsterdam


Les légumes anciens étaient petits, désagréables au goût

La plupart de ce que le prototype Fred et Wilma ont consommé n'est tout simplement pas disponible aujourd'hui. Les poulets, les vaches, les moutons et les chèvres modernes sont plus dodus, plus placides et génétiquement différents de leurs ancêtres sauvages. Les fruits paléolithiques, bien que souvent plus petits et plus acidulés que les variétés modernes, étaient des fruits reconnaissables. Les pommes, les raisins, les figues, les prunes et les poires tentent les mammifères depuis des dizaines, voire des centaines de milliers d'années. Mais les légumes paléolithiques sont une autre histoire. En fait, le légume paléolithique pourrait facilement être le sujet de la blague de Woody Allen sur les deux femmes âgées d'une station balnéaire de Catskill Mountain, qui se plaignent non seulement que la nourriture est mauvaise, mais que les portions sont également si petites. (Voir « Dinosaure ‘Chicken From Hell’ »)

Les tomates anciennes avaient la taille de baies, les pommes de terre n'étaient pas plus grosses que des cacahuètes. Le maïs était une herbe sauvage, ses grains faisant craquer les dents étaient groupés en grappes aussi petites que des gommes à crayon. Les concombres étaient épineux alors que la laitue d'oursins était amère et piquante. Les pois étaient si féculents et désagréables qu'avant d'être mangés, ils devaient être grillés comme des châtaignes et épluchés. Le seul chou disponible - l'arrière-arrière-grand-père du chou frisé, du chou-rave, du brocoli, des choux de Bruxelles et du chou-fleur d'aujourd'hui - était le chou marin, une mauvaise herbe à feuilles dure et ondulante qui poussait le long des côtes tempérées. Les carottes étaient maigres. Les haricots étaient naturellement mélangés avec du cyanure.

Les légumes qui ornent chaque bar à salade aujourd'hui sont des retardataires. Les légumes ne sont pas vraiment sortis du sol avant la période néolithique, la fin civilisée de l'âge de pierre, dont on dit généralement qu'elle a commencé il y a environ 10 000 ans. Le Néolithique, c'est quand nous avons abandonné le mode de vie insouciant et lâche du chasseur-cueilleur et avons commencé à nous installer dans les fermes et dans les villages. La poterie a été inventée, les animaux ont été domestiqués. Nous avons commencé à nous inquiéter de la sécheresse, des mauvaises herbes et des sauterelles, et quelque part là-dedans, presque certainement, nous avons inventé les mots préhistoriques pour « mal de dos », « ampoule » et « corvée ».

Grâce à une sélection et une culture minutieuses, les agriculteurs néolithiques, les premiers et les plus patients ingénieurs génétiques au monde, ont produit au cours des siècles suivants des variétés de légumes gras, luxuriants et délicieux, dont les descendants sont encore dans nos assiettes aujourd'hui. Les êtres humains, collectivement, ont fait beaucoup de choses formidables. Nous avons inventé l'imprimerie, construit la Grande Muraille de Chine, découvert la pénicilline, nous sommes allés sur la Lune. Mais peut-être que la plus grande et la plus ancienne de nos réalisations a été celle d'une dispersion de Freds et de Wilmas armés de houes en pierre et de bâtons à creuser. (Voir « Qu'est-ce qui nous rend humains ? Cuisiner, selon une étude »)

À cause d'eux, plus personne n'est obligé de suivre un régime paléo.

Cette histoire fait partie de la série spéciale de huit mois « Future of Food » de National Geographic.


L'histoire de l'alimentation, de l'alimentation et de la nutrition

Nos ancêtres ont collecté de la nourriture dans la nature pour survivre, et on peut noter que les humains ont plus de deux millions d'années de certaines habitudes alimentaires. On pense que la préparation des repas a commencé il y a plus de 500 000 ans. Les descriptions les plus anciennes de la nourriture et des repas, ainsi que leurs effets sur la santé, sont décrites par les anciens Égyptiens et datent de 3200 av.

Le lien entre l'alimentation et la santé est bien connu tout au long de l'histoire de l'humanité. Tous les faits dits « non scientifiques » de l'histoire ancienne au XVIIIe siècle ont créé la base de la science moderne de la nutrition.

La découverte du feu, l'écriture et la science de la nutrition sont en effet très jeunes par rapport à l'âge de notre espèce. La science moderne de la nutrition a environ 200 ans, étant donné qu'elle a commencé après les travaux pionniers du chimiste français Lavoisier.

L'histoire et le développement de l'alimentation et de la nutrition peuvent être grossièrement divisés en trois périodes importantes : l'âge pré-agricole, l'âge de l'agriculture, qui a commencé 10 000 ans avant JC, et l'âge agro-industriel qui a commencé il y a environ 150 ans. Lorsque ce laps de temps pourrait être réduit à un an et en supposant que l'homme apparaisse le 1er janvier, l'âge agricole commencerait dans la seconde quinzaine de décembre, et l'âge agro-industriel commencerait le soir du 31 décembre.

L'ère pré-agricole commence il y a trois millions d'années, elle se caractérise par la collecte de nourriture, la chasse et la pêche, ainsi que le développement d'outils et d'activités. Au début, la nourriture est consommée crue, mais après la découverte du feu, les humains ont également utilisé des aliments cuits. La recherche de nourriture et la collecte de nourriture jouent un rôle majeur dans le développement bio-culturel de l'homme : chasser, préparer la nourriture et cueillir autour du feu, contribue au développement de la socialisation, et l'alimentation et la nutrition deviennent partie intégrante de la communauté. Vers la fin de cette époque, la nourriture était consommée crue, cuite ou fermentée, et divers objets étaient utilisés pour la collecte, la manipulation, l'entretien, la préparation et l'alimentation : coquillages, carapaces de tortues, écorces de bois, et plus tard des pots en argile.

L'ère de l'agriculture est basée sur la culture des cultures et la domestication des animaux qui deviennent alors une partie importante de l'alimentation humaine. Durant cette période, l'agriculture s'est progressivement développée sur un sol fertile, presque simultanément dans plusieurs endroits du monde, la Méditerranée, le Moyen et l'Extrême-Orient, entraînant des établissements humains, des nations et des empires. Sur le continent européen, nous voyons la domestication du blé, de l'avoine, des pois, des lentilles, du lin et des animaux comme les chiens, les porcs, les chèvres, les moutons et le bétail, et les gens ont partout introduit divers outils pour travailler la terre. Tout au long de la découverte du Nouveau Monde et du développement du commerce, l'homme a distribué une variété de plantes et d'animaux aux quatre coins du monde. Depuis lors, l'Europe s'est adaptée à la culture du maïs, des pommes de terre, des tomates, des haricots, des poivrons, des tournesols et du tabac.

Par le développement du capitalisme au début du 16ème siècle, une nouvelle façon de penser évolue sur la base des découvertes de la Renaissance et de la Réforme, la «nouvelle agriculture» déploie ses ailes et dont le but principal est d'augmenter la production céréalière et la diversification des consommation de nourriture. Le besoin de cultiver plus de cultures est strictement lié à la production de plus d'engrais, plus d'animaux et plus d'aliments pour animaux. L'interdépendance des plantes et des animaux cultivés s'est multipliée.

L'ère agro-industrielle a commencé il y a environ 150 ans. Des expérimentations rigoureuses et de nouvelles découvertes en chimie, biologie, microbiologie et mécanique au cours du XIXe siècle ont influencé le développement de l'agriculture en tant que science ainsi que ses principales branches : la génétique, la nutrition (au sens large, ce qui inclut ici le concept de l'ensemble du processus d'assimilation et d'énergie dans un organisme vivant, et non limité à l'alimentation humaine) et d'hygiène (pour protéger les plantes des maladies et des insectes).

L'ère agro-industrielle est caractérisée par une combinaison d'activités agricoles et industrielles - des machines sont introduites dans l'agriculture, la production de nourriture et de matières premières est augmentée, la construction de routes et de voies ferrées a augmenté le transport de marchandises, il y a eu un développement soudain de l'industrie alimentaire , notamment du fait de la création de filières frigorifiques, de conservation des produits alimentaires, et de nouveaux appareils électroménagers (ex. réfrigérateur).

Sous la pression de l'industrialisation, les produits agricoles de base se sont convertis en produits agro-industriels : les nouvelles technologies sont désormais fréquemment utilisées dans la production alimentaire telles que la mise en conserve, la concentration, l'extraction, etc.

En 1804, Nicolas Appert a découvert une nouvelle méthode pour prolonger la durée de conservation de la stérilisation des aliments, et la première usine industrielle a été construite en France en 1860. La base scientifique du processus de stérilisation a été donnée par Pasteur, et sa méthode de pasteurisation est maintenant utilisé dans divers domaines de l'activité humaine, pas seulement dans la préparation des aliments.

À la fin du XIXe siècle, Nestlé produit le premier lait concentré et J. Liebig fabrique les premiers extraits de viande et soupes concentrées. C'est en 1869 que Les Mégé-Mouries fabriquent la première margarine. Petit à petit, les produits agro-industriels ont remplacé les produits agricoles (par exemple, le beurre industriel remplace le beurre de la production domestique). FastFood est le produit agro-industriel le plus récent, ce sont des produits semi-finis et finis qui réduisent considérablement l'activité de préparation des aliments dans le ménage.

Le développement de la science de la nutrition

La science nutritionnelle a commencé avec la chimie moderne et son fondateur Antoine Lavoisier à la fin du XVIIIe siècle.La base de la nouvelle science de la nutrition humaine a été établie par la connaissance de la chimie générale (identification des éléments et des composés), le développement de l'analyse chimique, de la biochimie, de la physiologie et des tests scientifiques et quantitatifs des théories et idées anciennes et nouvelles. Le développement de la science de la nutrition dépendait en grande partie du développement de la chimie analytique et de la physiologie générale.

Avant Lavoisier : l'ère naturaliste – d'Hippocrate à Lavoisier

Le médecin grec Hippocrate (460-377 av. J.-C.) savait que la même nourriture et la même boisson ne peuvent être données aux personnes saines et malades. Cornelius Celsius au 1er siècle est considéré comme le traitement des patients avec un régime alimentaire le plus difficile, mais la meilleure partie de la médecine.

Les enseignements de Galénus (131-201) ont littéralement dominé la médecine européenne pendant plus de mille ans. Il était connu pour prescrire le jeûne dans le traitement de nombreuses maladies. Anthimus (511-534) décrit une centaine d'aliments dans le livre “Epistula de Observation Ciborum”.

Sigmund Albich, un médecin tchèque, a écrit l'un des premiers livres sur la diététique “Dietetics for Old Men”. Le physiologiste italien Sanctorius (1561-1636) a pesé toute la nourriture qu'il a consommée pendant plus de trente ans, ainsi que les fluides corporels. Il écrit également une discussion sur le métabolisme.

John Mayon (1641-1679) constate que le travail musculaire dépend de la combustion de certains composés chimiques. Le médecin anglais William Stark a essayé sur lui-même les aliments nocifs et non nocifs.

De nombreux remèdes populaires et certains aliments étaient utilisés pour traiter les maladies. Vers 1550, on savait déjà que les agrumes préviennent et guérissent le scorbut. Le remède populaire traditionnel pour les problèmes de vision était le foie cuit (d'animaux domestiques et sauvages). Les algues séchées et les éponges de mer séchées ou leurs cendres obtenues par incinération étaient le vieux remède populaire pour traiter le goitre.

1746 – James Lind, un médecin anglais, a réalisé la première étude clinique contrôlée moderne utilisant différents antiscorbutiques potentiels. Lind a divisé douze marins scorbutiques en 2 groupes, et chaque groupe a reçu une thérapie différente. Les marins qui ont eu des citrons et des oranges après 6 jours étaient presque guéris, tandis que le deuxième groupe, traité avec de l'acide sulfurique dilué ou du vinaigre, n'a montré aucune amélioration même après deux semaines. En fait, à l'époque, on pensait que le scorbut pouvait être traité avec l'acide citrique des agrumes. Mais comme les agrumes se gâtaient au cours de longs voyages, en échange, des acides plus forts et plus stables tels que l'acide sulfurique dilué et le vinaigre (acide acétique) étaient utilisés. On pensait aussi que le scorbut était exclusivement une maladie des marins, et qu'il n'apparaissait pas chez les autres.

1750 – Le scorbut a d'abord été traité avec du jus de citron vert.

1768-1771 Les marins de James Cook (1728-1779) doivent manger de la choucroute et des agrumes pour prévenir le scorbut, bien que personne à cette époque ne sache comment ces aliments préviennent le scorbut.

Nutrition moderne – ère analytique chimique

1777 – Les expériences les plus importantes d'Antoine Lavoisier (1743-1794) sont directement liées au développement de la nutrition. Lavoisier a prouvé que le processus de combustion implique une combinaison de diverses substances chimiques et d'oxygène, et que la respiration végétale et animale est une combustion lente de matière organique utilisant l'oxygène de l'atmosphère. Lavoisier et Pierre-Simon Laplace prouvent le lien entre la chaleur et le CO2 qui se produisent chez les animaux. Lavoisier a mesuré la consommation d'oxygène et la libération de CO2 chez l'homme, et s'est rendu compte qu'elles sont augmentées après la consommation d'aliments et l'effort physique. Ces expériences le conduisent à la conclusion « La vie est donc une combustion ».

1812 – Après la découverte de l'élément chimique iode, un chimiste français suggère l'utilisation de l'iode dans le traitement du goitre. L'idée tombe bientôt dans l'oubli puisque l'iode élémentaire n'a montré aucun effet.

1816 – François Magendie conclut après des expérimentations animales que “la diversité des aliments est particulièrement importante en matière d'hygiène, et cette diversité est obtenue par notre instinct.”

1823-1827 Le chimiste et médecin anglais William Prout (1785-1850) isole l'acide chlorhydrique de l'estomac de l'homme. Il croit que la nourriture est composée de trois composants de base : les protéines, les graisses et les glucides, et reconnaît que ces substances doivent être prises quotidiennement avec de la nourriture.

1830-1850 – Le rachitisme est traité avec de l'huile de poisson et du beurre.

1833 – L'Américain William Beaumont se rend compte que l'acide chlorhydrique déjà connu est sécrété dans l'estomac après un repas.

1838 – Le chimiste suédois Jons Jacob Berzelius (1779-1848) découvre des protéines. Il est considéré, avec Lavoisier, comme le père de la chimie moderne.

1839 - Le chimiste français Jean Baptiste Boussungault a mené la première étude du bilan azoté. De telles études d'équilibre avec diverses substances sont menées encore aujourd'hui, par ex. la rétention de calcium dans l'organisme lors d'apports alimentaires élevés ou lors de l'utilisation de suppléments.

1839 – Le Néerlandais Gerrit Mulder développe une théorie des protéines. Il pense que les « produits d'origine animale » (les protéines albumine, fibrine et caséine) proviennent des mêmes radicaux « protéines » et qu'ils diffèrent par leur part de phosphore, de soufre ou des deux éléments.

1842 - Justus Liebig (1803-1873), chimiste allemand, expert expérimenté en chimie organique et érudit influent, a travaillé sur la chimie alimentaire et l'a reliée à la physiologie. En observant les muscles, il a découvert qu'ils ne contiennent ni glucides ni graisses, et conclut que l'énergie nécessaire à la contraction musculaire doit provenir de la décomposition des protéines. Il croyait que les seuls véritables nutriments sont les protéines, ou le seul ingrédient capable de construire et de remplacer les tissus actifs et de fournir de l'énergie au corps. Cette théorie a ensuite été contestée par de nombreux chimistes.

1842 – Budd traite la cécité nocturne avec de l'huile de foie de poisson.

1850 – Claude Bernard révèle les sécrétions pancréatiques et la capacité émulsifiante de la bile, et détermine ainsi qu'elles jouent un rôle important dans la digestion et dans l'absorption des graisses. Il conclut que le rôle central dans la digestion ne peut être attribué qu'à l'estomac, comme le pensaient ses contemporains.

1850 – Après près de 100 ans d'incertitude dans le traitement du scorbut, A. Bryson conclut que l'acide citrique n'a aucune activité anti-scorbutique.

1866 – L'Anglais Edward Frankland a développé une technique pour mesurer directement l'énergie de combustion des aliments et de l'urée. Il a déterminé expérimentalement qu'un gramme de protéine donne 4,37 kcal. En passant en revue les expériences de ses collègues, Frankland conclut que la majeure partie de l'énergie nécessaire au travail musculaire doit provenir des graisses et/ou des glucides, et remet ainsi en cause l'hypothèse des protéines de Liebig.

1880-1900 – La découverte de nombreux microbes, l'hygiène et l'assainissement gagnent en importance. À cette époque, on croyait que les maladies nutritionnelles les plus courantes étaient causées par des micro-organismes ou leurs toxines. En 1885, la science moderne de la nutrition traitait principalement des protéines et du métabolisme énergétique, mais au cours des 60 années suivantes, les facteurs progressivement découverts dans les aliments (vitamines) ont finalement été liés au développement de diverses maladies. Les scientifiques ont concentré leurs recherches sur les maladies suivantes : anémie, béribéri (polinévrite), rachitisme, cécité nocturne, goitre et autres.

1887 – L'Américain Wilbur Olin Atwater (1844-1907), inspiré de l'école allemande de Carl Voit, établit la norme américaine en matière de protéines à 125 g/jour. La norme pour les travailleurs allemands était de 118 g / jour, et Voit considérait que les végétariens, bien qu'ils restent dans l'équilibre azoté, présentaient des « inconvénients ». De nombreux experts ont estimé que l'apport protéique quotidien essentiel doit être supérieur à 100 g/jour. Mais après quelques années, Atwater a conclu que ces chiffres étaient scandaleux et a recommandé la mise en œuvre d'études contrôlées pour déterminer comment les nutriments affectent le métabolisme et le travail musculaire. Atwater a passé en revue ses propres recherches et son inquiétude a grandi face aux découvertes selon lesquelles la population américaine consommait trop de nourriture, en particulier des graisses et des sucreries, et ne faisait pas assez d'exercice.

1890 – Ralph Stockman traite l'anémie avec des injections sous-cutanées de capsules de citrate de fer et de sulfure de fer et a obtenu de très bons résultats.

1894 – Le physiologiste et hygiéniste allemand Max Rubner (1854-1932) détermine quantitativement la valeur calorifique des protéines, des graisses et des glucides, qu'ils soient dépensés dans un organisme vivant ou simplement brûlés dans un calorimètre. Il a prouvé expérimentalement que la chaleur des animaux à sang chaud était l'énergie des nutriments alimentaires.

1896 – Atwater (1844-1907) et E.B. Rosa a déterminé la valeur calorique de nombreux aliments et a ainsi créé les premières tables d'aliments caloriques. Atwater a effectué des analyses alimentaires, quantifié les ingrédients alimentaires, déterminé la production d'énergie de l'activité physique et de la digestion des aliments. En 1896, Atwater et ses collègues ont publié une compilation de 2 600 analyses chimiques d'aliments, en 1899, la publication a été complétée par 5 000 autres analyses. La deuxième édition des analyses chimiques des aliments a été publiée en 1906 et comprenait la valeur maximale, minimale et moyenne de l'humidité, des protéines, des lipides, des glucides totaux, des cendres et de la valeur énergétique. L'objectif principal d'Atwater dans la préparation de ces tableaux était d'enseigner aux pauvres comment atteindre le niveau approprié de protéines dans l'alimentation.

1899 – Atwater et EB Rosa ont construit le calorimètre respiratoire le plus précis pour l'étude du métabolisme humain. Nous recommandons les articles Atwater et Rosa (1899), Atwater et Benedict (1905) et Benedict et Carpenter (1910) à toute personne engagée dans la recherche dans le domaine de la nutrition et de l'activité physique, car ces articles sont d'actualité aujourd'hui. avec leurs données techniques détaillées et leurs procédures expérimentales qui peuvent être utilisées pour mesurer la consommation d'énergie. Atwater confirme définitivement que la Première loi de la thermodynamique s'applique au corps humain ainsi qu'aux substances qui nous entourent. Commentaire d'Atwater daté de 1895. On dirait qu'il vient d'être dit :

« La nourriture est un matériau qui, lorsqu'il est introduit dans le corps, est utilisé pour former le tissu ou pour créer de l'énergie, ou les deux. Cette définition inclut tous les matériaux habituels de l'alimentation, puisqu'ils construisent des tissus et produisent de l'énergie. Il comprend des sucres et des amidons, car ils produisent de l'énergie et forment du tissu adipeux. Il comprend l'alcool, car il donne de l'énergie, bien qu'il ne forme pas de tissus. Les aliments ne comprennent pas la créatine, la créatinine et d'autres extraits azotés de la viande, ainsi que la théine et la caféine, car ils ne servent pas à la formation des tissus ou à l'obtention d'énergie, bien qu'ils puissent dans certains cas être un bon atout pour la santé. diète. ”

Ère biologique – depuis le début du 20e siècle

Grâce aux progrès de la biochimie et de la physiologie, la nutrition tout au long du 20ème siècle étudie le rôle des macro et micro nutriments (vitamines et minéraux). Les scientifiques ont utilisé diverses combinaisons de nutriments purifiés (protéines, glucides et lipides) pour provoquer une carence en nutriments chez les animaux afin d'identifier le nutriment manquant. Dans la première moitié du 20e siècle, les nutritionnistes ont découvert les acides aminés et les acides gras essentiels. Dans la seconde moitié du 20 siècle, l'accent a été mis sur l'exploration du rôle des nutriments essentiels et la découverte de la manière dont les vitamines et les minéraux agissent sur les enzymes et les hormones. De grandes études épidémiologiques des années 60 et 70 ont montré l'effet des glucides, des fibres et des graisses dans le développement de maladies telles que le diabète, la constipation et l'athérosclérose (maladies de civilisation).

1902 – Le chimiste allemand Emil Fisher (1852-1919) était l'un des plus grands chimistes des temps modernes. Il s'attribue de nombreux mérites dans le domaine de la nutrition, il est responsable de la détection des principes actifs du thé, du café et du cacao. De 1882 à 1906, il a découvert la structure 16 stéréoisomères d'aldohexoses, dont le sucre le plus important est le glucose. Il synthétise le glucose, le fructose et le mannose, il découvre l'adénine, la xanthine, la guanine qui appartiennent à la famille des purines. Il a également contribué de manière significative à la compréhension de l'isolement des protéines et des acides aminés - Fisher a synthétisé des peptides, des polypeptides et des protéines et a découvert la liaison peptidique. En 1902, Fisher reçoit le prix Nobel de chimie pour ses travaux sur la clarification et la synthèse des protéines et des glucides. Avec Frederico Hopkins, il a découvert l'importance primordiale des acides aminés en tant que composants de base des protéines.

Le biochimiste et physiologiste anglais Frederick Hopkins (1861-1947) fut un pionnier dans l'étude des vitamines, il fut le premier scientifique à isoler le tryptophane et le glutathion. En 1929, Hopkins a reçu le prix Nobel pour la recherche sur les maladies de carence nutritionnelle.

1904 – À la fin de ses propres études, Russell Chittenden (1856-1943) a nié les normes élevées de protéines établies par les écoles américaines et allemandes. Sa déclaration est notable :

“Les gens ne sont pas devenus riches parce qu'ils mangent plus de protéines, mais mangent plus de protéines et des aliments riches en protéines plus chers parce qu'ils peuvent se les payer.”

Chittenden a maintenu le bilan azoté à 60 g/protéine par jour, ce qui représente moins de la moitié des normes alors recommandées à l'époque. Mais il est intéressant de noter que les chercheurs tout au long du XIXe siècle considéraient que le corps humain absorbe des protéines intactes, qui sont ensuite transformées sous la forme requise. Bien que l'on sache dès le début du 20ème siècle que les sucs pancréatiques contiennent une substance trypsine qui dissout les protéines, ces produits de dégradation n'étaient pas très intéressants pour les nutritionnistes de l'époque. En fait, les acides aminés étaient considérés comme représentant un excès de protéines qui se décomposent et deviennent inutilisables, et sont donc excrétées par l'organisme.

1905-1950 – La recherche intensive de « facteurs alimentaires » (vitamines) et d'autres ingrédients alimentaires et de leurs effets sur la santé humaine.

1912 – La quête de trente ans de la vitamine thiamine (B1) est enfin terminée. Le béribéri dû à une carence en thiamine s'est produit dans la plupart des régions d'Asie, jusqu'au Japon. Alors que le médecin japonais Kanehiro Takaki pensait que la cause de la maladie était un apport insuffisant en protéines, le Néerlandais Christian Eijkman (1858-1930), qui travaillait à Jakarta, cherchait une cause microbienne. Eijkman était très persistant et méthodique et a très vite écarté la cause microbienne. Il a analysé les résultats incohérents des expériences sur les poulets et a découvert que les serviteurs nourrissaient parfois le poulet avec du riz cuit. Il a conclu que le problème principal était dans le riz cuit, et a commencé à étudier cet aliment. Eijkman apprit très vite que les militaires utilisaient du riz poli, car le riz brun se gâtait rapidement dans les conditions tropicales (entraînant le rancissement). Il découvre enfin que la véritable cause du béribéri était l'absence d'une substance qui se trouvait dans le son de riz. Cela a ensuite conduit au concept et à la découverte des vitamines. Eijkman a reçu le prix Nobel de médecine de physiologie en 1929. D'autres chercheurs ont poursuivi les travaux d'Eijkman, et en particulier Gerrit Grijns, qui a commencé en 1901 :

« L'absence de substances alimentaires naturelles entraîne de graves dommages au système nerveux périphérique. Ces substances se répartissent différemment dans les aliments, et sont très difficiles à isoler car instables. Ces substances ne peuvent pas être remplacées par d'autres molécules simples.”

En 1905, des chercheurs néerlandais en Indonésie ont montré que le béribéri était causé par la consommation de riz poli dépourvu d'un composant thermolabile. Beaucoup ont essayé d'isoler ce composant du riz, et le premier qui a réussi était un polonais Casimir Funk (1884-1967). Il a découvert la substance dont le manque causait une polinévrite nutritionnelle et il a d'abord introduit le terme « vitamine ». Funk attire l'attention par ses travaux sur les maladies de carence en vitamines - il est en fait responsable de la pièce "vitamine", et plus tard il postule l'existence de 3 autres vitamines : B2, C et D, qu'il prétendait nécessaires à la normale. santé et prévention des maladies. Funk croyait que de petites quantités de vitamines naturellement présentes dans une variété d'aliments différents peuvent prévenir une mauvaise croissance et certaines maladies.

1912 – Les Norvégiens Alex Holst et Theodore Frohlich découvrent la vitamine C.

1912-1914 – Elmer McCollum et Marguerite Davis ont découvert la vitamine A. En 1913, un scientifique de l'Université de Yale a découvert ce composé dans le beurre.

1918 – Le concept des « aliments protecteurs » est développé : le lait, les fruits et légumes deviennent les premiers aliments protecteurs.

1919 – Francis Gano Benedict (1870-1957) assisté d'Atwater, a mené pendant une période de 12 ans plus de 500 expériences dans des études de calorimètre respiratoire d'Atwater-Rosa – qui ciblaient la dépense énergétique au repos, pendant l'activité physique et après consommer de la nourriture. Benoît a également publié des études sur les effets physiologiques de l'alcool, le travail musculaire, l'effet de l'effort mental sur le métabolisme énergétique, il a étudié le métabolisme des nourrissons, des enfants et des adolescents, le métabolisme de la famine, également le métabolisme des sportifs et des végétariens.

1919 – Benedict et Harris ont publié les tableaux “metabolic standards” – basés sur le sexe, l'âge, la taille et le poids utilisés pour comparer les personnes en bonne santé et les personnes malades.

Ivan Petrovich Pavlov (1849-1936), physiologiste russe, s'est intéressé à la physiologie de la digestion et a découvert le réflexe conditionné. Un scientifique important dans le domaine de la physiologie de la digestion était également Claude Bernard (1813-1878), qui a exploré la fonction du pancréas dans la digestion, et a montré que le niveau de glucose plasmatique peut varier chez les individus sains, et nombre de ses découvertes ont utile dans l'étude du diabète et les études de la fonction hépatique.

1922 – Lauréat du prix Nobel Frederick Grant Banting (1891-1941), médecin canadien et Charles Herbert Best (1899-1978), physiologiste canadien, dirigé par J.J.R. MacLeod a découvert l'insuline, une hormone pancréatique, une découverte considérée comme l'une des avancées médicales les plus importantes de l'époque. Jusque-là, des millions de personnes dans le monde qui souffraient de diabète ne pouvaient pas être soignées et leur pronostic était très sombre.

1922 - Edward Mellanby découvre la D, les Américains Herbert Evans et Katherine Bishop découvrent la vitamine E.

1923 – L'enrichissement du sel de table en iode pour prévenir le goitre est introduit pour la première fois en Suisse. Lait enrichi d'Angleterre et des États-Unis avec de la vitamine D pour la prévention du rachitisme.

1926 – George Minot (1885-1950) et William Murphy (1892-1979) soignent des personnes souffrant d'anémie pernicieuse en utilisant des aliments pour le foie.”

1926 – D.T. Smith et E.G.Hendrick a découvert la vitamine B2 (riboflavine), et la même vitamine a été synthétisée pour la première fois en 1935.

1929 – Découverte des acides gras essentiels.

1933 – Lucy Wills découvre l'acide folique.

1934 – Paul Gyorgy découvre la vitamine B6 (pyridoxine).

1935 – La vitamine C est la première vitamine synthétisée en laboratoire (acide ascorbique).

1937 – L'Américain Conrad Elvehjem découvre la vitamine niacine.

1941 – La première édition des apports nutritionnels recommandés aux États-Unis (RDA) .

1947 – Synthèse de la vitamine A.

1948 – Découverte de la vitamine cobalamine B12.

Années 1950 – L'hygiène se développe, mais aussi la technologie alimentaire, l'étiquetage des aliments, les besoins nutritionnels ont été quantifiés par tranches d'âge pour les hommes et les femmes. Les vitamines sont découvertes, et la science de la nutrition poursuit l'étude des effets biochimiques des aliments sur la santé, et l'exploration biochimique d'autres aspects de la nutrition humaine commence.

1950 – 1970 – De vastes études sont menées pour révéler le lien entre les maladies et la consommation alimentaire. La recherche agricole vise à augmenter la production de viande et de lait, les porcs et les volailles sont élevés de manière intensive. La nourriture devient moins chère et plus accessible dans les pays développés. L'industrie alimentaire et les multinationales sont en plein essor, les supermarchés offrent une variété de produits alimentaires jamais vue auparavant. Confiseries, confiseries, gâteaux, biscuits, beurre et lait sont mis à disposition de tous, et les habitudes alimentaires évoluent fortement. Il y a un besoin croissant de simplifier le processus de préparation des repas dans les ménages, il y avait donc une demande croissante d'ustensiles de cuisine et d'appareils électroménagers, en particulier le réfrigérateur. Le pouvoir d'achat augmente, ainsi que la demande d'aliments préparés rapidement. Il est désormais possible de se procurer des produits de saison tout au long de l'année. La chaîne du froid permet littéralement le transfert des aliments à l'autre bout du monde. Les aliments sont emballés dans de nouveaux emballages : des boîtes de conserve, des contenants en plastique, des emballages sous vide et sous atmosphère modifiée, ce qui prolonge la durée de conservation. Une variété d'aliments qui étaient auparavant préparés pendant des heures et des jours sont maintenant disponibles tous les jours.

1963 – La FAO et l'OMS créent la Commission du Codex Alimentarius, dont la mission est d'élaborer des normes alimentaires et de protéger la santé des consommateurs. La Commission était composée de technologues alimentaires, de toxicologues et, entre autres, la Commission établit les réglementations internationales pour les méthodes d'analyse, l'étiquetage des aliments, les aspects toxicologiques des aliments, etc.

Les pays développés des années 1980 et 1990, les États-Unis et les pays européens produisent des excédents alimentaires, mais il y a le problème croissant de la faim dans les pays en développement. Les pays en développement acceptent également la culture occidentale et le régime alimentaire occidental.

1988 – L'indice de Quetelet ou indice de masse corporelle (IMC) est d'abord utilisé pour la définition et le diagnostic de la malnutrition, selon le mathématicien belge Adolphe Quetelet (1796-1874).

1992 – Le département américain de l'Agriculture (USDA) a officiellement annoncé la pyramide alimentaire – Food Guide Pyramid, qui était censée aider les Américains à faire leurs choix alimentaires, à être en bonne santé et à réduire le risque de maladies chroniques.

Les investigations se poursuivent bien sûr aujourd'hui, mais alors que la nutrition classique au milieu du siècle dernier était principalement préoccupée par le problème de la faim, la rationalisation de l'alimentation en temps de guerre et la prévention des troubles nutritionnels, la science de la nutrition d'aujourd'hui tend à déterminer l'importance des composants alimentaires individuels (fibres, cholestérol, vitamines, minéraux, composés phytochimiques) et de l'alimentation sur la santé et la maladie.


Société de chasse et de cueillette

Des études sur les chasseurs-cueilleurs d'aujourd'hui offrent un aperçu du mode de vie de petites tribus nomades remontant à près de 2 millions d'années.

Avec des ressources limitées, ces groupes étaient par nature égalitaires, ramassant suffisamment de nourriture pour survivre et créant un abri de base pour tous. La division du travail par sexe s'est accentuée avec l'avancée des techniques de chasse, en particulier pour le gros gibier.

En plus de la cuisine, l'utilisation contrôlée du feu a favorisé la croissance de la société à travers le temps commun autour du foyer. L'évolution physiologique a également conduit à des changements, les cerveaux plus gros d'ancêtres plus récents entraînant des périodes plus longues d'enfance et d'adolescence.

À l'époque des Néandertaliens, les chasseurs-cueilleurs affichaient des caractéristiques «humaines» telles qu'enterrer leurs morts et créer des objets ornementaux. Homo sapiens continué à favoriser des sociétés plus complexes. Il y a 130 000 ans, ils interagissaient avec d'autres groupes basés à près de 200 milles de distance.


Recettes japonaises

Kinpira (Bardane et Carotte)

Le kinpira est l'un des plats japonais classiques cuisinés à la maison, composé de deux excellents légumes-racines, de la bardane et des carottes. Dans ce plat sauté, la bardane se marie à merveille avec les carottes sucrées, les poivrons rouges et les graines de sésame grillées. Croquante, douce, sucrée et piquante, pas étonnant que cette recette japonaise soit un plat d'hiver populaire au Japon.

La bardane, ou gobo, est un légume-racine japonais riche en fibres avec une délicieuse saveur terreuse. Recherchez la bardane sur les marchés japonais ou les supermarchés gastronomiques.

1 racine de bardane moyenne (8 onces)

1 cuillère à soupe d'huile de canola ou d'huile de son de riz

2 poivrons rouges séchés japonais (ou chili thaï, Santaka ou Szechuan)

1 tasse de carottes, coupées en lamelles de la taille d'une allumette

1 cuillère à soupe de saké (vin de riz)

1 cuillère à soupe de sauce soja à teneur réduite en sodium

2 cuillères à café de mirin (un vin de cuisine à base de riz sans gluten)

1 cuillère à café de sucre cristallisé

1 cuillère à café de graines de sésame grillées et moulues

1. Frottez l'extérieur de la racine de bardane avec une brosse à légumes pour enlever l'excès de saleté et la peau. Coupez la racine de bardane en allumettes de 2½ à 3 pouces de long et rincez-les rapidement sous l'eau froide. Vous aurez environ 2 tasses d'allumettes de racine de bardane.

A continué

2. Chauffer l'huile dans une poêle moyenne à feu moyen-élevé. Ajouter les poivrons rouges et faire revenir 30 secondes. Ajouter la racine de bardane et faire sauter jusqu'à ce qu'elle soit tendre, environ 3 minutes, elle apparaîtra translucide à la surface. Incorporer la carotte et faire revenir 2 minutes.

3. Réduisez le feu à doux et ajoutez le saké, le soja, le mirin et le sucre. Remuez les légumes pendant 1 minute de plus pour leur permettre d'absorber la sauce. Retirer et jeter les poivrons rouges et disposer les légumes en monticule au centre d'un bol de service et garnir de graines de sésame.

Extrait de Les femmes japonaises ne vieillissent pas et ne grossissent pas par Naomi Moriyama et William Doyle. Copyright © 2005 par Naomi Moriyama et William Doyle. Extrait avec la permission de Delta, une division de Random House, Inc. Tous droits réservés. Aucune partie de cet extrait ne peut être reproduite ou réimprimée sans l'autorisation écrite de l'éditeur.

Voici un exemple parfait de la façon dont les cuisiniers japonais créent un plat de bœuf délicieux et copieux - avec de très petites portions de bœuf. Une version abrégée du sukiyaki (une combinaison de bœuf tranché finement et de légumes dans un bouillon de soja sucré), celui-ci est versé sur du riz cuit chaud dans un bol.

Le bœuf en fines tranches est disponible dans la section congélateur de la plupart des marchés japonais. Il est pratique à utiliser, extrêmement tendre et parfait pour ce plat sain de temps froid. Si vous choisissez d'acheter le bœuf sur un marché ordinaire, congelez la viande avant de la couper. Cela vous permettra de le découper (avec un couteau extrêmement tranchant) en tranches fines comme du papier.

Je pense souvent que la meilleure partie de ce bol de bœuf n'est pas le bœuf, mais le riz chaud aux noisettes saturé de jus de bœuf sucré.

2 tasses de dashi (un bouillon de poisson et de légumes de mer, disponible en ligne ou dans les épiceries asiatiques)

1 oignon jaune moyen, pelé, coupé en deux et coupé en fins croissants

1 Tokyo negi (ou 1 petit poireau), avec les racines et la partie rugueuse du dessus coupés, nettoyés, rincés et coupés en diagonale en fines tranches

A continué

3 cuillères à soupe de sauce soja à teneur réduite en sodium

1 cuillère à soupe de sucre cristallisé

1 cuillère à café de sel de mer finement moulu

1 cuillère à café de mirin (un vin de cuisine à base de riz sans gluten)

½ livre de filet de bœuf tranché très finement (environ 1/8 de pouce d'épaisseur), ou, si vous préférez, du bœuf haché

6 tasses de riz brun ou blanc cuit chaud

1 oignon vert, les racines et la partie supérieure coupés et tranchés finement

1. Placez le dashi et le saké dans une casserole moyenne à feu vif. Ajouter l'oignon et le Tokyo negi (ou poireau) et porter le mélange à ébullition. Réduire le feu à moyen et laisser mijoter jusqu'à ce que les légumes soient tendres, environ 5 minutes. Incorporer le soja, le sucre, le sel et le mirin. Ajouter le bœuf et laisser mijoter jusqu'à ce qu'il soit à peine cuit, environ 40 secondes (il cuira rapidement s'il est coupé en tranches fines comme du papier).

2. Disposez 4 bols. Remplissez chacun avec 1 ½ tasse de riz cuit chaud et versez des portions égales du mélange de bœuf sur le dessus. Garnir chaque portion d'une pincée d'oignons verts.

Extrait de Les femmes japonaises ne vieillissent pas et ne grossissent pas par Naomi Moriyama et William Doyle. Copyright © 2005 par Naomi Moriyama et William Doyle. Extrait avec la permission de Delta, une division de Random House, Inc. Tous droits réservés. Aucune partie de cet extrait ne peut être reproduite ou réimprimée sans l'autorisation écrite de l'éditeur.


Causes de la révolution néolithique

Il n'y a pas eu un seul facteur qui a poussé les humains à se lancer dans l'agriculture il y a environ 12 000 ans. Les causes de la révolution néolithique peuvent avoir varié d'une région à l'autre.

La Terre est entrée dans une tendance au réchauffement il y a environ 14 000 ans à la fin de la dernière période glaciaire. Certains scientifiques pensent que les changements climatiques ont conduit à la révolution agricole.

Dans le Croissant Fertile, délimité à l'ouest par la mer Méditerranée et à l'est par le golfe Persique, le blé sauvage et l'orge ont commencé à pousser à mesure qu'il se réchauffait. Les peuples pré-néolithiques appelés Natoufiens ont commencé à construire des maisons permanentes dans la région.

D'autres scientifiques suggèrent que les progrès intellectuels dans le cerveau humain peuvent avoir amené les gens à s'installer. Des objets religieux et des images artistiques&# x2014progéniteurs de la civilisation humaine&# x2014ont été découverts dans les premiers établissements néolithiques.

L'ère néolithique a commencé lorsque certains groupes d'humains ont complètement abandonné le mode de vie nomade et chasseur-cueilleur pour se lancer dans l'agriculture. Il a peut-être fallu des centaines, voire des milliers d'années aux humains pour passer complètement d'un mode de vie consistant à se nourrir de plantes sauvages à l'entretien de petits jardins et plus tard à l'entretien de grands champs de culture.


4 ALIMENTS POUR CÉLÉBRATIONS RELIGIEUSES ET FÊTES

En raison de la forte influence espagnole du Pérou, la plupart des Péruviens (90 %) sont de fervents catholiques. Les fêtes chrétiennes telles que Pâques, Noël et la Toussaint sont joyeusement célébrées dans tout le pays, souvent avec des feux d'artifice, des corridas, des danses et un cochon rôti. Le reste de la population adhère aux croyances indigènes, croyant aux dieux et aux esprits des Incas il y a des centaines d'années. De nombreuses fêtes chrétiennes coïncident avec les fêtes traditionnelles existantes, permettant à la plupart des Péruviens, indépendamment des différences de croyances, de célébrer ensemble.

Noël apporte une grande joie aux chrétiens du Pérou, en particulier les enfants qui attendent l'arrivée du Père Noël. Les familles profitent du temps des vacances pour se rendre au domicile de la famille et des amis proches. En raison du nombre de personnes se précipitant dans les rues du Pérou, les vendeurs se précipitent pour vendre des aliments de vacances et d'autres produits aux passants. Le jus de mangue sucré, les petits pains et les beignets faits maison enrobés de sucre et de sirop sont les favoris de Noël. Le flan, crème au caramel appréciée dans tous les pays d'Amérique centrale et du Sud (ainsi qu'en Espagne, aux Philippines et aux États-Unis), est également un dessert apprécié des Péruviens.

Ingrédients

  • ¼ tasse de sucre, plus ¾ tasse de sucre
  • 4 gouttes de jus de citron
  • 2 tasses de lait
  • 1 cuillère à café de vanille
  • 4 œufs

Procédure

  1. Préchauffer le four à 350ଏ.
  2. Dans une petite casserole, chauffer ¼ tasse de sucre et des gouttes de jus de citron à feu doux jusqu'à ce que le mélange soit brun foncé, comme du sirop de caramel. (Ne vous inquiétez pas si le sirop brûle un peu.)
  3. Verser dans un moule à flan (un plat à soufflé à bords droits allant au four ou des moules individuels conviennent parfaitement), en recouvrant tous les côtés et le fond avec le sirop de sucre.
  4. Placer au réfrigérateur pendant la préparation du flan.
  5. Porter à ébullition le lait et la vanille dans une petite casserole à feu doux.
  6. Dans un bol à mélanger séparé, mélanger les œufs et ¾ tasse de sucre, en battant bien.
  7. Ajouter lentement le mélange d'œufs et de sucre au lait bouilli.
  8. Verser dans un moule réfrigéré. Placer le moule à flan dans un plat allant au four plus grand. Ajouter de l'eau à une profondeur d'environ un pouce et placer soigneusement dans le four.
  9. Cuire 35 à 40 minutes. Le flan est cuit lorsqu'un couteau inséré au centre en ressort propre.
  10. Refroidir et démouler. Servir frais.

Carnavales (kar-nah-VAH-lays Carnival) est une fête nationale richement célébrée qui a lieu quelques jours avant le Carême. C'est la dernière occasion pour les gens de boire et de danser avant le début de la période de jeûne du Carême, lorsque de telles activités ne sont pas autorisées. Pendant ces quelques jours, certains pratiquent la tradition indigène de rassembler du gibier sauvage pour le présenter à un prêtre ou un maire, qui en retour fournit chichi et feuilles de cacao. L'offrande des animaux remonte à plusieurs centaines d'années aux Incas, qui avaient l'habitude de faire des offrandes de nourriture aux dieux dans l'espoir d'une bonne récolte. Papas à la huancaína (pommes de terre au fromage) est un repas populaire pendant le carnaval.

Papas a la Huancaína (Pommes de terre au fromage)

Ingrédients

  • ¼ tasse de jus de citron
  • ⅛ cuillère à café de piment rouge moulu, ou au goût
  • Sel, au goût
  • 1 oignon, tranché finement
  • 2 cuillères à soupe d'huile végétale
  • 3 tasses Monterey Jack ou fromage suisse, râpé
  • ½ cuillère à café de curcuma
  • 1 tasse de crème épaisse
  • 6 pommes de terre, égouttées, pelées et coupées en quartiers
  • 1 à 2 œufs durs, pour la garniture

Procédure

  1. Frottez les pommes de terre, placez-les dans une casserole, couvrez d'eau et faites bouillir jusqu'à ce qu'elles soient tendres (environ 20 minutes). Égoutter, laisser refroidir les pommes de terre. Épluchez-les, coupez-les en quartiers et réservez.
  2. Dans un petit bol, mélanger le jus de citron, le poivron rouge et le sel. Ajouter les tranches d'oignon et les enrober du mélange. Bien mélanger et réserver.
  3. Chauffer l'huile dans une grande poêle à feu doux.
  4. Ajouter le fromage, le curcuma et la crème épaisse. En remuant constamment, poursuivez la cuisson à feu doux jusqu'à ce que le fromage fonde et que le mélange soit lisse.
  5. Ajouter les pommes de terre cuites et remuer doucement pour réchauffer, environ 5 minutes. Ne laissez pas le mélange bouillir, ou il caillera.
  6. Transférer dans un bol de service et garnir d'œufs durs.
  7. Saupoudrer le mélange d'oignons sur les pommes de terre. Servir immédiatement pendant que les pommes de terre sont chaudes.

Les personnes les plus saines du monde mangent beaucoup de glucides

Les Japonais sont, dans l'ensemble, en très bonne santé : ils ont la deuxième espérance de vie la plus élevée par rapport à tout autre pays du monde (les États-Unis arrivent au numéro 43) et ont un taux d'obésité de seulement 3,5 %, ce qui est un dixième du taux d'obésité américain de 35 pour cent.

La raison de la santé supérieure du Japon ? Leur régime alimentaire riche en céréales et en glucides.

Selon une nouvelle étude menée par des chercheurs du National Center for Global Health and Medicine à Tokyo, les personnes qui adhèrent fortement aux directives alimentaires recommandées par le Japon sont 15 % moins susceptibles de mourir de n'importe quelle cause - comme les maladies cardiovasculaires et les accidents vasculaires cérébraux - par rapport aux ceux qui n'adhèrent pas bien.

Les directives nutritionnelles du Japon reflètent le régime alimentaire traditionnel du pays, riche en céréales, poisson et produits à base de soja, mais faible en gras. Aux États-Unis, où la marée semble se retourner contre les céréales et vers une plus grande consommation de matières grasses, les directives alimentaires contrastées du Japon rappellent bien qu'il n'y a pas de façon « correcte » de manger des aliments nutritifs – juste des styles différents qui conviennent à différentes personnes et cultures. meilleur.

Pourquoi les Japonais peuvent manger autant de céréales (et ne pas grossir)

Pour l'étude, 80 000 participants ont répondu à des questionnaires détaillés sur le mode de vie et l'alimentation qui déterminaient dans quelle mesure ils suivaient les directives, puis les chercheurs ont suivi leur santé pendant 15 ans. Le quart supérieur des personnes qui ont le mieux suivi les directives présentaient un risque réduit de décès, quelle qu'en soit la cause. Les chercheurs ont contrôlé des facteurs tels que l'âge, le sexe, l'IMC, le statut tabagique, l'activité physique totale et les antécédents d'hypertension, de diabète et de dyslipidémie. Les personnes ayant des antécédents de cancer, d'accident vasculaire cérébral, de maladie cardiaque ou de maladie hépatique chronique ont également été exclues.

James DiNicolantonio, chercheur cardiovasculaire au St. Luke's Mid America Heart Institute, est un défenseur passionné de la théorie selon laquelle le sucre et les glucides sont la véritable cause de l'obésité et des maladies métaboliques. Il encourage également les personnes qui souhaitent perdre du poids à manger plus d'aliments riches en graisses et en calories pour se sentir plus rassasiées.

"Nous pouvons apprendre beaucoup de choses sur la façon d'être en bonne santé des Japonais, et cela se résume vraiment à 'manger de la vraie nourriture' et 'faire de l'exercice'."

Mais même lui note que le régime japonais riche en glucides fonctionne, et c'est à cause de la qualité de la nourriture qu'ils mangent, du peu de graisse qu'ils mangent et de leurs niveaux d'activité, a-t-il expliqué au HuffPost. DiNicolantonio, qui n'a pas participé à l'étude, a déclaré qu'il s'agissait d'une combinaison de macronutriments uniquement japonaise qui pourrait les sauver de l'obésité et des maladies métaboliques.

"La combinaison d'un apport élevé de glucides et de graisses est la tempête parfaite pour l'obésité", a-t-il déclaré. "Les Japonais ont tendance à manger beaucoup de glucides (à la fois du riz et des légumes) mais un faible apport en matières grasses."

DiNicolantonio a également noté que les Japonais ont tendance à manger beaucoup de fruits de mer, riches en acides gras oméga-3 sains, et qu'ils ne mangent pas autant d'aliments transformés.

De plus, le Japonais moyen marche plus de 7 000 pas par jour, tandis que les Américains marchent en moyenne environ 5 000 pas par jour. A noter également : la tendance santé à marcher 10 000 pas par jour a en fait commencé au Japon.

Compte tenu de leur régime alimentaire composé d'aliments entiers et non transformés, ainsi que de leur mode de vie actif, il n'est pas étonnant que les Japonais puissent tolérer plus de céréales que l'Américain moyen, a déclaré DiNicolantonio.

"Je pense que la meilleure chose à retenir pour les Américains, quand on regarde les Japonais, c'est que si nous limitons notre consommation de sucre raffiné, d'huiles de graines industrielles et augmentons [notre] consommation d'oméga-3 marins, nous pourrions alors tolérer de manger plus de riz », a-t-il déclaré. « Nous pouvons apprendre beaucoup de choses sur la façon d'être en bonne santé des Japonais, et cela se résume vraiment à « manger de la vraie nourriture » et à « faire de l'exercice ».

Les directives nutritionnelles du Japon sont faciles à suivre

Les directives alimentaires du Japon de 2005 représentent cette histoire culinaire. Alors que les Américains ont apprécié une pyramide avant de se voir offrir une assiette, les directives du Japon sont illustrées comme une toupie. Kayo Kuratani, chercheur au National Center for Global Health and Medicine et l'un des auteurs de l'étude, note que le graphique est facile à comprendre et à suivre. La toupie est "à base de plat", tandis que les directives américaines parlent principalement d'ingrédients bruts.

"La méthode à base de plat est non seulement facilement comprise par ceux qui préparent les repas mais aussi par ceux qui les mangent", a déclaré Kuratani au HuffPost. "Il s'exprime en termes de plats réels consommés à table plutôt que d'aliments sélectionnés ou utilisés dans la préparation des repas. Cela le rend facilement compréhensible même pour ceux qui cuisinent rarement."

Un chiffre courant autour du sommet représente le besoin d'activité physique. La poignée du dessus est faite d'un verre d'eau et de thé, et aucune taille de portion n'est recommandée pour les collations, les bonbons et autres boissons (c'est-à-dire sucrées).

La plus grande partie du sommet est composée de plats à base de céréales comme le riz, le pain, les nouilles et les gâteaux de riz, recommandés pour cinq à sept portions par jour. Viennent ensuite cinq à six portions de plats de légumes, puis la toupie se rétrécit encore à trois à cinq portions de protéines, notamment des plats de viande, de poisson, d'œufs et de soja.

La dernière section est divisée en deux : deux portions par jour chacune de fruits et de lait ou de produits laitiers.

Ce que les Américains peuvent apprendre du Japon

Le Dr Lydia Bazzano, chercheuse en nutrition et diabète à l'Université de Tulane, souligne que le guide de la toupie peut être potentiellement trompeur pour les Américains. Elle note que les directives écrites d'accompagnement indiquent que le sommet est variable selon l'âge, le sexe et le niveau d'activité. Les jeunes hommes très actifs, par exemple, peuvent manger plus de céréales qu'une femme sédentaire dans sa vieillesse.

"Parmi les personnes très actives physiquement, les régimes pauvres en graisses avec une consommation de céréales plus élevée ne contribuent pas nécessairement à de mauvais résultats pour la santé et à des conditions comme l'obésité", a déclaré Bazzano. "Cependant, chez les personnes moins actives physiquement, une consommation plus élevée de céréales, en particulier de céréales raffinées, peut contribuer à de moins bons résultats pour la santé et/ou à l'obésité."

Le ministère japonais de la Santé, du Travail et du Bien-être a apporté une mise à jour majeure aux directives les plus récentes : étant donné que les Japonais mangent principalement du riz blanc comme céréale principale et que le riz blanc est lié à un risque accru de maladies chroniques, les directives de 2010 recommandent de ne 50 à 65% du régime alimentaire d'une personne devrait être constitué de glucides, et les gens devraient commencer à explorer les grains entiers comme le riz brun, a expliqué Kuratani.

Pourtant, le régime japonais idéal est un rappel puissant qu'il n'y a pas qu'un seul moyen d'atteindre un poids santé et d'éviter les maladies chroniques. Donc, la prochaine fois que quelqu'un vous dira (halètement!) De manger des céréales pour le déjeuner, faites-lui simplement savoir que vous êtes sur le plan de la toupie japonaise.