Abstract. The amount of information produced by a network may be measured by the mutual information rate. This measure, the Kolmogorov-Sinai entropy and the synchronization interval are expressed in terms of the transversal Lyapunov exponents. Thus, these concepts are related and we proved that the larger the synchronization is, the larger the rate with which information is exchanged between nodes in the network. In fact, as the coupling parameter increases, the mutual information rate increases to a maximum at the synchronization interval and then decreases. Moreover, the KolmogorovSinai entropy decreases until reaching a minimum at the synchronization interval and then increases. We present some numerical simulations considering two different versions of coupling two maps, a complete network and a lattice, which confirmed our theoretical results.AMS (2010) subject classification. 34D06; 94A15; 28D20; 05C82; 03G10. Keywords. Synchronization, information theory, Lyapunov exponents, mutual information rate, Kolmogorov-Sinai entropy, complex networks.Résumé. La quantité d'information produite par le réseau, peutêtre mesurée par la taux mutuelle d'information. Cette mesure, l'entropie de Kolmogorov-Sinai et l'intervalle de synchronisation sont exprimés en termes des exposants de Lyapunov transversales. Ainsi, ces concepts sont liés et nous avons prouvé que plus la synchronisation estélevée, plus grand est la vitesseà laquelle l'information estéchangée entre les noeuds du réseau. En fait, si le paramètre de couplage augmente, le taux mutuelle d'information augmente jusqu'à un maximum,à l'intervalle de synchronisation et, diminue ensuite. En outre, l'entropie de Kolmogorov-Sinai diminue jusqu'à atteindre un minimum,à l'intervalle de synchronisation et, ensuite elle augmente. Nous présentons aussi, quelques simulations numériques en considérant deux versions diferentes de coupler deux systèmes, un réseau complet et un treillis, qui ont confirmé nos résultats théoriques.Mots clefs. Synchronisation, theorie d'information, exposants de Lyapunov, taux mutuelle d'information, entropie de Kolmogorov-Sinai, réseau complexes.