Conférence francophone sur le thème de la sécurité de
l'information.
Elle a eu lieu
à Rennes du 10 au 12 juin 2003.
On mesure souvent la sécurité d'un système cryptographique à l'aide de la taille des clés utilisées. Cette mesure est-elle un véritable indice de sécurité ? Qu'elles soient publiques ou secrètes, des clés peuvent présenter des faiblesses volontaires ou non. Das le premier cas, les faiblesses peuvent provenir d'un mauvais générateur d'alea. Dans le second cas on parle de trappe.
La réutilisation d'une clef secrète dans le cadre du chiffrement (symétrique) par flot a des effets non-négligeables sur la sécurité générale d'un tel système. Cela impose, pour les chiffreurs et les gestionnaires du chiffre des contraintes comptables fortes sur les éléments secrets, qui peuvent occasionner des compromissions cryptologiques de trafic. L'évolution de la cryptographie moderne a tenté de répondre à cette problématique générale de gestion de clefs de deux manières différentes :
- par utilisation de système à clef publique. Les problèmes de réutilisation de clefs ne se posent plus (sauf quelques cas à la marge pour des systèmes faibles). Les contraintes de gestion des clefs se sont transformées en des contraintes de génération de clefs puisque ces systèmes réclament des propriétés assez fortes pour les éléments secrets.
- utilisation de système par blocs (notamment en mode ECB). La clef secrète est réutilisée pour chaque bloc du message (actuellement 128 bits).
Dans cette présentation, après avoir rappelé les faiblesses provenant de la réutilisation de la clef secrète pour le chiffrement par flot, il sera montré que cette réutilisation peut s'avérer dangereuse dans le cadre du chiffrement par bloc et dégrader la sécurité générale d'un tel système, ce en utilisant des codes correcteurs à répétition. Des résultats récents sur l'AES, provenant de 200 cryptanalyses réelles, seront présentés. Ils permettent de retrouver trois bits d'information sur la clef en n'utilisant que 231 blocs de chiffré, à la condition que ce chiffré ait été produit à partir de texte codé en ascii. L'exposé sera didactique (pratiquement pas de mathématiques).
La plupart des réseaux connectés à Internet sont aujourd'hui relativement sécurisés: la sécurité de niveau réseau est assurée par des éléments de filtrage tels que routeurs filtrants, pare-feux ou DMZ évoluées, avec selon les cas antivirus et détection d'intrusion. Par contre les couches applicatives ne sont pas forcément bien maîtrisées. Cette présentation se penche sur le cas particulier des fichiers, qui peuvent pénétrer sur un intranet par de nombreux moyens différents (web, mail, disquette, CDROM, ...), la plupart du temps sans réel filtrage. Une fois qu'il est ouvert par un utilisateur, un fichier peut facilement agir sans aucun contrôle sur un intranet et mettre en jeu sa sécurité (installation de cheval de Troie, espionnage, actions malveillantes, ...). Afin de préciser les menaces, quelques démonstrations concrètes illustreront différents exemples de codes malveillants qui peuvent être introduits dans les formats de fichiers classiques: exécutables, scripts, HTML, documents Office, PDF, ... Cela débouche sur une classification des différents formats de fichiers, afin de distinguer ceux qui sont inoffensifs et ceux qui présentent une menace potentielle. Il est ainsi possible de déterminer une politique de filtrage adaptée au réseau à protéger. Ensuite, il s'agira d'étudier quels sont les moyens techniques disponibles aujourd'hui pour contrer au mieux ces menaces (antivirus, contrôle d'intégrité, pare-feux personnels, analyse de contenu, bac à sable, conversion de formats, ...), en montrant que les solutions actuelles sont loin d'être satisfaisantes et exhaustives. Cela amènera quelques réflexions sur les solutions à mettre en place ou à développer à l'avenir pour améliorer la sécurité d'un réseau vis-à-vis des fichiers.
Cet article présente JAB, une backdoor utilisant Internet Explorer via les contrôles OLE pour communiquer avec un serveur externe, contournant ainsi firewalls personnels, proxy (avec ou sans authentification), passerelles antivirales, etc. De plus, le binaire peut être exécuté dans un réseau totalement inconnu et, si quelques pré-requis sont respectés, établir à coup sûr un canal de communication entre la victime et l'attaquant.
Windows XP, le dernier né de la gamme des systèmes d'exploitation Microsoft, intègre de plus en plus de fonctions Web natives. Bien que cette intégration facilite indéniablement « l'expérience utilisateur » (pour reprendre les termes de Microsoft), il est légitime de se poser la question des informations qui sont échangées en arrière-plan entre le système d'exploitation et les serveurs Microsoft, bien souvent sans confirmation ou possibilité de paramétrage ...
Au carrefour de l'informatique traditionnelle et du consumer electronics, les réseaux domestiques promettent de nouveaux usages et de nouveaux horizons pour le grand public. Ils ne tiendront pas ces promesses si leur sécurité n'est pas assurée. Nous montrons dans cette présentation en quoi des solutions de sécurité initialement élaborées pour un environnement professionnel offrent en fait peu de sécurité en environnement domestique ou contraignent trop le réseau et son utilisateur. Puis nous présentons quelques pistes récentes vers des mesures de sécurité spécifiques.
Le CEA se propose de déployer dans ses centres de recherche des applications nationales très fortement sécurisées dans un mode client-serveur. Après un rappel de la problématique, l'exposé décrira les règles qu'il s'impose pour la protection des informations sensibles manipulées par ces applications et les menaces contre lesquels il se propose de se protéger.
Nous passerons ensuite à une description sommaire de la solution retenue basée sur un client léger Linux sans disque dur et avec lecteur de carte à puce utilisant un VPN pour communiquer avec le serveur. L'exposé s'attardera sur les mécanismes de boot, puis de chargement de système et d'applications en présentant différents choix possibles de sécurisation selon les étapes. Une présentation du maquettage en cours conclura l'exposé.
Le développement des accès haut-débit pour les particuliers a ouvert un nouveau marché en matière de sécurité. Les spécificités des accès « grand public » ont conduit à l'émergence d'un type de produit nouveau : le firewall personnel.
Si le concept est intéressant et si ce type outil apparaît aujourd'hui comme une composante essentielle de protection, il est essentiel d'en apprécier les atouts comme les limites. Cet article vise donc d'une part à présenter ce qu'est un firewall personnel par ses concepts fondamentaux, puis d'autre part à en analyser les faiblesses dans son contexte de fonctionnement. Nous pourrons ainsi en définir les limites pour parvenir à une utilisation éclairée et efficace.
Présentation d'une valise pédagogique composée de 2 portables en réseau sur le modèle client-serveur. Il s'agit à travers un ensemble de démonstrations de vulnérabilités de parcourir le champ du risque informatique dans sa définition suivante : la probabilité qu'une menace particulière, utilisant une attaque spécifique, puisse exploiter une vulnérabilité particulière d'un système résultant en une conséquence non désirée. Chaque démonstration de vulnérabilité est constituée d'une manipulation, des explications techniques, d'une proposition de parades et de commentaires complémentaires. Les types d'attaque considérés sont la diffusion d'informations, la désinformation, l'intrusion, le vol d'informations et la prise de contrôle. Les trois domaines parcourus sont la bureautique, la messagerie électronique et la navigation. La typologie des codes malicieux (portes dérobées, cheval de Troie, Bombe logique, zombie, ver et virus) est illustrée dans le cadre des technologies de l'Internet.
Pourtant, bien qu'assez largement étudiées depuis 20 ans, les approches classiques de la détection d'intrusions tardent à prouver leur efficacité opérationnelle. Les intrusions ne sont-elles pas toujours de plus en plus nombreuses ? Le nombre d'incidents de sécurité rapportés annuellement au CERT/CC n'incite pas à l'optimisme. Dès lors, que manque-t-il aux IDS actuels ? Selon nous, une information tout à fait fondamentale : la vision de l'environnement dans lequel il sont placés. Nous présentons ici des travaux dont l'objectif est d'apporter une telle vision, tant au niveau du manager qu'à celui des sondes. La corrélation d'alerte au niveau des managers nous semble indispensable à la résolution de certains des problèmes actuels de la détection d'intrusions, tels que le taux élevé de faux positifs ou la pauvreté du diagnostic porté par les alertes. Pour cela, le mécanisme de corrélation doit être capable de tenir compte des caractéristiques du système d'information surveillé (topologie, type de machines et de services, failles connues, politique de sécurité). C'est tout l'objet du travail que nous conduisons autour du modèle M2D2 et de son exploitation. Au niveau des sondes également, le contexte est important. Parmi les éléments de contexte, ceux liés à la politique de sécurité nous semble essentiels. En effet, et de manière assez paradoxalement alors que la définition accepté par tous du terme « intrusion » est « toute violation de politique de sécurité », les sondes de détections actuelles ne tiennent aucunement compte de cette politique. Nous pensons que c'est une erreur. En outre, nous pensons que c'est au niveau du système d'exploitation et au moment où les violations de politique se produisent, qu'il faut détecter les dites violations, et éventuellement les empêcher (concept d'intrusion prevention). Ces deux observations ont motivé notre travail sur les flux de références.
UML (User Mode Linux) permet d'avoir à sa disposition une machine virtuelle tournant sur Linux. L'intérêt est de pouvoir tester sans risque de nouveaux programmes ou même un nouveau noyau, puisque tout ce qu'on effectuera sur l'UML, lancé en tant qu'utilisateur sans privilèges particuliers, ne pourra endommager la machine de départ. Nous avons repris cet outil pour créer un Honeypot ou pot à miel. Le but est d'attirer les pirates et de les faire venir sur notre machine virtuelle tout en leur faisant croire qu'ils se trouvent sur une machine réelle. On espère ainsi découvrir de nouvelles techniques qui pourraient être mises en oeuvre sur des ordinateurs où l'issue serait plus critique. Nous allons donc mettre l'accent sur les différents aspects qui pourraient trahir la virtualité de l'UML sur des aspects système et réseau d'une part, et voir comment tracer les attaques d'un assaillant d'autre part.
Après un survol du domaine de la reconnaissance à distance des systèmes d'exploitation, nous rappelons le principe de la reconnaissance temporelle mis en œuvre dans l'outil RING (cf. www.intranode.com). Nous présentons ensuite une évolution, Cron-OS, et indiquons divers exemples de fonctionnement.
Le fonctionnement global d'Internet repose sur un nombre très réduit de protocoles clefs, en particulier DNS et BGP. Or, il est maintenant de notoriété publique que ces deux derniers sont affectés de problèmes sécuritaires importants, même si les cas connus d'exploitation à grande échelle restent un tabou. Dans un contexte grandissant de guerre de l'information, quelles sont ces vulnérabilités ? Quel est leur impact dans le cadre d'opérations d'envergure ?
Dans cet article, nous présentons une nouvelle méthode de détection d'intrusion appartenant à la famille comportementale qui est basée sur l'analyse en composantes principales (ACP). Cette approche fonctionne en projetant les profils des utilisateurs sur un espace de traits qui peut décrire de signifiantes variations entre les profils. Ces traits sont connus sous le nom de « profils propres » car ils sont les vecteurs propres de l'ensemble des profils. L'opération de projection caractérise un profil utilisateur par une somme pondérée de l'ensemble des profils. Pour détecter si un profil est anormal, il suffit de comparer ces poids à ceux des profils utilisateurs connus. Les principaux avantages de cette méthode sont : (i) elle permet, au premier lieu, d'apprendre les profils utilisateurs ensuite déterminer si un nouveau profil correspond ou non à ceux des utilisateurs connus, (ii) son implémentation est très simple sur tous les systèmes ayant des mécanismes d'audit de sécurité ! et (iii) elle est robuste et permet de produire des taux de détection élevés. L'application de cette méthode sur un ensemble de profils simulés d'utilisateurs sous Unix a été réalisé pour valider la méthode. Par la suite nous avons utilisé un ensemble de profils des utilisateurs dans un réseau réel en analysant leur activité de navigation Web et nous présentons les résultats expérimentaux jugés encourageants.
- Bruno Kerouanton : Techniques d'attaques des microcircuits par pénétration partielle
- Julien Bourgeois : défaillance des IDS
- Christian Toinard : protection des flux multicast
- Nicolas Grégoire: Scanners de vulnérabilité, localisation et faux-négatifs
- Guillaume Arcas : Guerre de l'information, restrospective depuis 1995
La rétroconception peut se définir comme l'action d'extraire une connaissance ou un savoir d'une réalisation. Cette activité est pratique depuis très longtemps dans un grand nombre de domaine industriel (automobile, électronique...) afin, notamment, de permettre l'accession a un savoir, a une technologie, a moindre frais. Notre exposé va tenter, après avoir aborder l'aspect juridique de la rétroconception, de montrer que les buts de la rétroconception sont nombreux et qu'ils dépendent très fortement de l'état d'esprit des personnes qui la pratique. Nous verrons ensuite qu'il est difficile de définir une méthodologie de la rétroconception car le spectre de ce qui est recherche est trop large. Dans le cas le plus simple (typiquement le cracking), nous savons ce que nous cherchons, et dans le cas le plus complique (la recherche de vulnérabilités), nous n'avons aucune idée de ce que nous cherchons... Ceci nous conduiras a présenter quelques schémas de protections et les façons de les contourner afin d'illustrer notre présentation par une exemple d'analyse logicielle.
Les packers d'exécutables PE sont très utilisés pour protéger les applications contre le Reverse Engineering. Ils rendent le désassemblage et le débogage du programme protégé beaucoup plus complexe. Dans mon tutoriel, je présenterai la protection Asprotect, son principe de fonctionnement, ses méthodes anti debugging, ses différentes protections, et la reconstruction pas à pas d'une application déprotégé. La protection Asprotect est un des leaders dans le domaine des protecteurs PE, et pourtant, nous verrons que malgré une bonne sécurité, nous ne pouvons faire confiance à ce type de protection, pour protéger des applications sensibles, puisqu'elles peuvent être retirées après quelques heures d'analyses.
À travers le reverse engineering, nous abordons de nombreuses problématiques de la sécurité informatique, notamment dans les domaines de manipulation binaire, analyse de code, et approche statique des protections automatiques contre les failles de sécurité de type buffer overflow. ELFsh (http://devhell.org/projects/elfsh/) est utilisé comme support pour l'exposé.
La guerre de l'information s'intéresse aux actions menées contre l'information, les processus qui l'utilisent, et les systèmes supports, d'un point de vue offensif ou défensif. Les systèmes informatiques en sont donc bien évidemment un point focal et des cibles privilégiées, du fait de leur fonction neurocorticale dans le monde moderne.
Les outils informatiques et les réseaux numériques sont devenus une composante majeure de la société tant dans le secteur privé que public. Malgré les avantages qu'ils apportent en termes de coûts et de rapidité, ils présentent des risques et des vulnérabilités inhérents à leur nature ouverte et internationale. Cette faiblesse n'a pas échappé aux délinquants. Parfois c'est le réseau qui est victime d'infractions (attaque, virus, intrusion, etc.), parfois il sert à les commettre ou à les préparer (réseaux terroristes, réseaux de pédophilie, délits de presse, etc.). La liste des infractions est longue et concerne aussi bien l'entreprise que les administrations et les individus. En réponse à cette criminalité informatique ou informatisée, dénommée communément « cybercriminalité », le droit français prévoit une réponse répressive. L'adoption d'un certain nombre de dispositions dans le code pénal couvre ainsi les cas où le réseau est la victime (cf. notamment art. 226-16 à 226-19 et 323-1 à 323-7 du code pénal) ou le moyen de l'infraction (cf. notamment la loi du 15 novembre 2001 sur la sécurité quotidienne et le projet de loi pour la confiance dans l'économie numérique). Une telle réponse est nécessaire mais pas suffisante. Le législateur a également adopté des dispositions qui tendent à responsabiliser les acteurs des réseaux en mettant à leur charge des obligations qui varient selon leur rôle respectif (obligation de protection, obligation de conservation des données de connexion, obligation de sécurité, etc.). Dans ce cadre, les contours d'un juste équilibre entre les différents intérêts qui se retrouvent sur la Toile sont peu à peu dessinés par le juge (cf. affaire Kitetoa.com). Par ailleurs, l'abolition des frontières induite par l'Internet s'accommode mal avec le principe de souveraineté des Etats qui s'impose en matière pénale. Seule une harmonisation des législations nationales et une coopération entre les autorités judiciaires compétentes permettront de pallier cette faille et de lutter efficacement contre la cybercriminalité. La Convention du Conseil de l'Europe du 23 novembre 2001 et la proposition de décision cadre de la Commission européenne du 19 avril 2002 s'inscrivent dans une telle démarche.
Nous présentons les résultats d'une étude sur la sécurité des Réseaux Sans Fil Ad-Hoc, avec notamment une analyse de risque haut-niveau prenant en compte les spécificités de ces réseaux et leurs contextes d'utilisation. Sur un plan plus technique, nous détaillons les particularités du routage dans de tels réseaux et les problèmes de sécurité y afférant. Diverses équipes de recherche élaborent actuellement des solutions spécifiques aux réseaux sans fil Ad-Hoc. Nous présentons les plus prometteuses avant de conclure sur quelques recommandations et des suggestions d'axes de développement futurs.
Avec Loufti NUAYMI et Bruno THARON
Les réseaux mobiles sans fil et sans infrastructure, dits "réseaux ad hoc" ou MANET, posent des problèmes spécifiques de sécurité : systèmes complètement distribués, tout noeud peut jouer le rôle de routeur, etc. Les vulnérabilités des réseaux filaires sont accentuées. Les services de sécurité doivent être distribués, coopératifs et compatibles avec la bande passante disponible. Nous proposons ici un modèle de sécurité pour les MANET et un système de détection d'intrusion (IDS) distribué et coopératif, utilisant une technologie à agents mobiles. Les résultats obtenus pour la détection des attaques par rebonds telnet sont présentés et feront l'objet d'une démonstration.