Monthly Archives: février 2021

Se garder des attaques par internet

Même les plus férus de technologie parmi nous peuvent se sentir comme un bébé dans la forêt en ce qui concerne la protection d’un réseau domestique ou professionnel contre les menaces de cybersécurité. Une fois que j’explique aux clients les étapes à suivre pour transformer leur maison ou leur bureau en un château électronique correctement défendu, je compare souvent la cybercriminalité à l’industrie réelle de la sécurité physique. J’explique que leur maison ou leur entreprise a maintenant des fenêtres et des portes électroniques à protéger. Lors de l’évaluation d’un bâtiment pour n’importe quel système de sécurité, il s’agit de comprendre le triangle d’évitement des activités criminelles, composé des capacités, des souhaits et des opportunités de chaque côté. Le seul élément que vous pouvez contrôler est Chance, en dissuadant les mauvais comportements (cassage de la base du triangulaire). Tout simplement, ne vous transformez pas en victime. Parce qu’une bonne sécurité physique réelle consiste à éliminer les opportunités, la cybersécurité ne devrait pas être différente. Néanmoins, au lieu de ne vous soucier que de terribles acteurs célèbres qui mettent en danger une maison ou un bureau, vous êtes soumis à d’innombrables escrocs possibles en ligne. Construisez une clôture suffisante pour dissuader les escrocs qualifiés et vous réduirez certainement le risque d’occurrence de cybersécurité. Voici quelques-uns des problèmes de cybersécurité les plus courants et des stratégies pour minimiser les risques: Description des logiciels malveillants: De manière claire et directe, les logiciels malveillants sont des logiciels destinés à endommager ou désactiver les systèmes informatiques et les techniques informatiques personnelles. Les exemples incluent les virus ou les écrans de ransomware bien connus qui incitent Bitcoin à reprendre le contrôle de votre PC. Stratégie de cybersécurité: surveillez le passage de l’industrie de la protection des systèmes informatiques ou de tout autre point de terminaison comme les tablettes et les téléphones à des pare-feu dépendants du routeur qui rejettent les visiteurs douteux avant qu’ils ne deviennent sur le réseau. Grâce à l’apprentissage des appareils et à l’intelligence synthétique, nous avons maintenant parcouru un long chemin car l’époque des logiciels de cybersécurité criait au loup toutes les trente secondes. Les efforts précédents sur ces techniques étaient si irritants que la plupart des utilisateurs les ont handicapés, formation référencement naturel les rendant sans valeur. Les nouvelles solutions basées sur l’équipement des entreprises telles que Firewalla, Cujo et Norton garantissent d’éliminer les méchants dans la passe. Gardez à l’esprit que ces produits en sont encore à leurs tout débuts et qu’un champion clair comme du cristal n’a pas fait surface. Si vous aimez jouer avec les technologies et que cela ne vous dérange pas quelques maux de tête, une de ces techniques sera amusante à essayer. Peu importe ce que vous décidez, assurez-vous de vous concentrer sur le support de vos informations instantanément sur une base quotidienne, et en suivant la règle 3-2-1: Ayez au moins trois copies indépendantes de vos informations Conservez les doublons sur deux types de supports différents ( disque dur ou carte SD) Gardez toujours un seul site de sauvegarde en double (en utilisant un service comme Carbonite). Même les plus férus de technologie d’entre nous peuvent sembler être comme un bébé dans les bois en ce qui concerne la protection d’un réseau domestique ou professionnel contre les menaces de cybersécurité. Une fois que je communique aux clients les étapes à suivre pour transformer leur maison ou leur entreprise en une forteresse numérique correctement défendue, je compare souvent la cybercriminalité à l’industrie de la protection physique. J’explique que leur maison ou leur entreprise a actuellement des portes et fenêtres électroniques à protéger aussi. Lors de l’évaluation d’un bâtiment pour un système d’alarme, il s’agit de comprendre le triangle d’évitement du crime, composé de compétences, de désir et de chance des deux côtés. Le seul composant que vous pouvez contrôler est l’Opportunité, en dissuadant les actions terribles (détachant le bas du triangle). Tout simplement, ne devenez pas un malade. Tout simplement parce qu’une grande sécurité physique consiste à se débarrasser des opportunités, la cybersécurité ne devrait pas être différente. Cependant, plutôt que de vous inquiéter uniquement des terribles acteurs célèbres qui mettent en danger une maison ou un bureau, vous pourriez être soumis à des millions d’escrocs possibles sur Internet. Créez une clôture suffisamment haute pour dissuader les criminels qualifiés et vous réduirez le risque potentiel d’un événement de cybersécurité. Voici quelques-uns des problèmes de cybersécurité les plus courants et des techniques permettant de réduire le danger: Définition des logiciels malveillants: Les logiciels malveillants sont clairs et simples, des logiciels destinés à endommager ou désactiver les ordinateurs et les techniques des ordinateurs personnels. Les exemples incluent les infections ou même les ransomwares bien connus affichent des bitcoins difficiles pour restaurer le contrôle de votre PC. Technique de cybersécurité: surveillez le passage de l’industrie de la protection des ordinateurs ou de tout autre point de terminaison comme les pilules et les téléphones à des pare-feu basés sur des routeurs qui refusent le trafic suspect avant qu’il ne circule sur le réseau. Grâce à la compréhension des machines et à l’intelligence artificielle, nous avons considérablement progressé depuis l’époque du logiciel de cybersécurité criant au loup toutes les trente secondes. Les premiers efforts sur ces techniques avaient été si ennuyeux que la plupart des clients les ont handicapés, les rendant sans valeur. Des options plus récentes basées sur l’équipement d’entreprises telles que Firewalla, Cujo et Norton promettent de repousser les méchants dans le succès. Rappelez-vous que ces produits continuent d’être à leur tout début et qu’un gagnant clair comme du cristal n’a pas émergé. Si vous voulez faire l’expérience de la technologie et que cela ne vous dérange pas quelques maux de tête, l’une de ces techniques brillantes sera agréable à essayer. Indépendamment de ce que vous choisissez, assurez-vous de vous concentrer sur la prise en charge automatique de vos informations au quotidien et sur l’application de la règle 3-2-1: avoir au moins 3 doublons indépendants des données Conservez les doublons sur deux types de supports différents (disque dur ou carte SD) Gardez toujours un seul duplicata de sauvegarde hors du site Web (en utilisant un service comme Carbonite).

On l’appelait Schlick

Fondateur du mouvement positiviste reconnu, le «Cercle de Vienne», le fonctionnement de Schlick a été fortement affecté par le jeune Tractatus Logico-Philosophicus de Wittgenstein (Traité de la raison philosophique). Pour cette raison, la fascination majeure de Schlick est la langue et le sens et l’a amené à produire l’idée «vérificationniste» du sens. Comme l’a souligné Schlick, une déclaration est utile si elle est parfois correcte (comme «Tous les célibataires sont des hommes non mariés») ou si elle est en principe établie par expertise. Ainsi, pour Schlick, les revendications de la recherche ne sont importantes que dans la mesure où il existe une stratégie, en principe, où elles peuvent être approuvées. L’avertissement «en principe» est essentiel pour permettre que les fausses déclarations soient tout aussi utiles que les vraies. Les affirmations fausses sont des affirmations qui auraient pu être vraies mais qui, en fait, s’avèrent ne jamais l’être. D’un autre côté, les déclarations dépourvues de sens sont celles où aucune expérience ne pourrait en principe conduire à une confirmation. Des exemples typiques de tels enregistrements, insiste catégoriquement Schlick, sont jonchés à travers le contexte de la philosophie métaphysique. «L’âme survit après la mort», «Dieu est peut-être tout réalisateur et bienveillant», «Tout est Un» et de telles choses ne sont ni exactes ni fausses mais simplement sans valeur, comme le souligne Schlick. Le principe de vérification aurait un effet massif au milieu du XXe siècle. Parce que seuls les dossiers de la recherche scientifique et ceux qui sont vrais par définition sont importants, certains éléments devaient être présentés dans les propositions d’éthique, de beauté ainsi que dans d’autres allégations à faible proposition. Pour Schlick, ces types d’énoncés n’ont aucune signification littérale, mais transmettent simplement un état d’esprit ou une exclamation de la part du présentateur. L’impact de l’idée peut être vu dans l’émergence d’une quantité de concepts «émotivistes» à la fois dans les valeurs et dans l’apparence pendant cette période (voir, par exemple, G.E. Moore). En ce qui concerne les mathématiques et le bon sens, leurs propositions appartiennent à un support similaire à tous ceux réels par définition. Ils peuvent être, selon Schlick, littéralement des tautologies. Cela représente un problème majeur pour le profil vérificateur, ce qui signifie. Car si ce n’était pas la première fois que les philosophes possédaient des propositions mathématiques prétendument correctes par définition, les associer à la tautologie semble téméraire pour le dire avec douceur. Par définition, une tautologie se répète ou indique simplement une chose précédemment signalée. Pourtant, les mathématiques constituent autant d’autodiscipline de percée que la technologie. Il suffit de jeter un œil à son amélioration par rapport à Pythagore sur les mathématiques contemporaines de Cantor, Hilbert, Chaos Concept et Mandelbrot’s Fractal Generations pour en profiter. De plus, étant donné que les percées en mathématiques pures sous-tendent et éclairent souvent les estimations faites par les concepts corporels, en particulier parce que la venue du concept de relativité d’Einstein et des aspects quantiques de Schrödinger, la ligne de démarcation entre les propositions de mathématiques réelles et la science pure à 100% est floue à meilleur.

De Quine à Rawls

Le philosophe américain John Rawls était l’un des philosophes politiques les plus importants du XXe siècle. Dans une série d’opérations qui a commencé avec toute la théorie A Theory of Justice (1971), il s’est attaqué à toutes les questions classiques des restrictions à la liberté, des obligations du résident et de la justice distributive (l’équité ou bien la circulation des richesse et pouvoir). La solution de Rawls, traitée et élargie au cours des 35 années qui ont suivi, a été son idée de «justice comme équité», qui a rejeté la conception utilitaire en faveur d’une mise à niveau de l’accord sociable traditionnel, ainsi que la stratégie difficile de chacun protégeant les privilèges des personnes et faisant la promotion de la justice distributive. L’étape de départ de l’accord social de Rawls était sa «position initiale». Cette construction hypothétique pensait que les gens détermineraient ce qui allait se passer dans leur culture en alimentant un «voile d’ignorance». Parce qu’il dit dans une idée de justice: «  Personne en particulier ne connaît sa place dans la communauté, sa place ou sa position, ni personne ne connaît sa fortune dans la circulation des ressources et des compétences naturelles, son intelligence, sa durabilité, etc.  » Considérant que les gens n’auront aucune idée de la façon dont ils s’en tireront face à leurs concurrents avec leurs concitoyens, Rawls a affirmé qu’ils étaient sûrs d’adopter une technique minimax pour éviter les plus préjudiciables et de créer une collection de directives honnêtes pour chacun. et tout le monde. C’étaient «les concepts que des personnes réalistes et totalement libres soucieuses de défendre leurs propres intérêts reconnaîtraient dans un lieu préliminaire d’égalité comme déterminant des principes de base en ce qui concerne leur lien». Selon Rawls, il y avait deux de ces concepts de justice. Le premier principe (de liberté) mentionnait que «chaque individu a un droit identique à de loin le régime le plus substantiel de libertés simples équivalentes convenant à un régime de liberté comparable pour les autres». Pour Rawls, ces libertés fondamentales comprenaient non seulement l’indépendance des conversation, assemblée, croyance et conscience, mais directement à tenir la maison individuelle. Ils n’incluaient pas les «libertés de» traditionnelles, comme l’absence de chômage, d’exploitation ou d’inquiétude. Le deuxième principe (droits appropriés) est arrivé en deux volets. Tout d’abord, les niveaux d’inégalité sociale et économique devraient viser à garantir à chacun une «égalité des chances équitable» en ce qui concerne les carrières et les postes de pouvoir. Deuxièmement, les niveaux d’inégalité sociable et monétaire doivent être de la meilleure aide pour la société des individus les moins favorisés. Conformément à cette deuxième partie du principe de base des droits appropriés – appelé principe de différence – l’inégalité n’est satisfaisante que si elle améliore le niveau total des plus démunis. L’égalitarisme de Rawls est renforcé par son insistance sur le fait que personne ne devrait assumer de meilleures récompenses simplement parce que ces personnes sont nées avec des dons plus élevés. Rawls a identifié que ses deux principes directeurs des droits appropriés pouvaient fonctionner l’un contre l’autre dans la réalité, et a cherché à résoudre ce problème en rendant le principe de base de la liberté essentiellement total. Chaque fois qu’une société est contrainte de choisir, la sécurité des libertés (le principe de la liberté) doit tenir compte de la priorité sur la publicité de la justice distributive (le principe de la justice). Il a permis que cette priorité puisse être inversée dans des situations d’amélioration économique réduite, mais son dysfonctionnement pour déterminer ou stipuler ce «bas niveau» laissait des questions sans réponse. Il était catégorique sur le fait que les idées produites à partir de concepts abstraits devaient être testées contre un bon jugement. Une représentation philosophique sur les principes directeurs de sa propre idée de «justice en tant qu’équité» les transformerait en un fait peu théorique, les plaçant dans ce qu’il appelait «l’équilibre réfléchi». Le libéralisme politique (1993) a affiné les idées de Rawls. Son objectif principal a finalement été de distinguer le libéralisme en tant que point de vue de la vie et le libéralisme en tant que credo simplement politique. Le précédent était préoccupé par les préceptes éthiques et religieux qui, selon Rawls, étaient certains de mettre l’accent sur les divisions politiques. Ces derniers, par distinction, traitaient de pensées beaucoup moins controversées comme la réciprocité et la valeur mutuelle. Si la seconde était prioritaire, des individus de différentes convictions morales et religieuses pourraient se concentrer sur la «raison publique» qui les unissait, plutôt que sur les croyances qui les divisaient. Ce que Rawls appelle un «consensus qui se chevauchent» peut être créé. Ceci, bien que n’étant pas vraiment une pensée particulièrement authentique, a acquis une signification cristalline pour le débat en expansion sur le multiculturalisme.

Un PC aussi puissant qu’un super computer

Les universitaires du College of Sussex ont mis au point une technique de turbocompression des ordinateurs de bureau pour leur donner exactement la même capacité que des supercalculateurs valant des dizaines de millions de livres. Le Dr James Knight et le professeur Thomas Nowotny de l’École d’ingénierie et d’informatique de l’Université du Sussex ont utilisé les dernières unités de manipulation graphique (GPU) pour donner à un ordinateur de bureau unique la capacité d’imiter des modèles d’esprit de dimension presque illimitée. Ils pensent que les progrès, complets dans la recherche scientifique computationnelle de la nature, permettront à de nombreux autres experts du monde entier d’entreprendre des recherches sur un simulateur mental à grande échelle, comme l’investigation des conditions neurologiques. Actuellement, le coût des supercalculateurs est vraiment prohibitif, ils ne sont raisonnables que pour les grandes organisations et les ministères et ne sont donc pas accessibles pour de nombreux chercheurs. En plus d’économiser des dizaines de kilos sur les dépenses d’un supercalculateur, les simulations fonctionnent sur l’ordinateur de bureau et le PC nécessite environ dix fois moins d’énergie, agence seo offrant également un avantage substantiel en matière de durabilité. Le Dr Knight, chercheur en informatique personnelle à l’Université du Sussex, a déclaré: « Je pense que le principal avantage de notre recherche est simplement l’accessibilité. En dehors de ces très grandes entreprises, les universitaires doivent normalement postuler pour obtenir même un temps limité sur un supercalculateur pour l’objectif technologique. Il s’agit d’une barrière raisonnablement plus élevée à l’entrée, ce qui freine potentiellement un grand nombre d’études substantielles. résoudre des problèmes auxquels les esprits biologiques réussissent bien mais qui sont actuellement des simulations passées. «Parallèlement aux développements que nous avons maintenant démontrés dans le domaine de la connectivité en ligne procédurale dans le cadre du matériel GPU, nous pensons qu’il est en outre possible de créer de nouveaux types de matériel neuromorphique entièrement conçus pour la connectivité en ligne procédurale. Des composants clés pourraient être mis en œuvre directement dans l’équipement qui peut conduire à des augmentations de temps de calcul beaucoup plus substantielles.  » L’étude crée autour du spécialiste révolutionnaire des personnes fonctionnelles Eugene Izhikevich qui a lancé une méthode similaire pour le simulateur d’esprit à grande échelle en 2006. À l’époque, les ordinateurs étaient trop lents pour que la méthode soit largement pertinente, ce qui signifie que la simulation de conceptions cérébrales à grande échelle Jusqu’à présent, seule une minorité de chercheurs privilégiés a eu accès aux techniques de supercalculateur. Ils ont utilisé la méthode d’Izhikevich sur un GPU moderne, avec environ 2000 fois la puissance de traitement disponible il y a quinze ans, pour créer un modèle à l’avantage de la coupe du cortex visuel d’un Macaque (avec 4,13 × 106 neurones et 24,2 × 109 synapse) qui ne pouvait auparavant être simulé sur un supercalculateur. La simulation de réseau neuronal à pic plus rapide du GPU des chercheurs utilise la grande quantité d’énergie de calcul sur un GPU pour produire «  de manière procédurale  » une connectivité et des poids synaptiques «  à la volée  » lorsque des pics sont déclenchés – éliminant ainsi le besoin d’acheter des informations de connectivité en ligne dans souvenir. L’initialisation à partir du modèle des chercheurs avait pris 6 minutes et le simulateur de chaque seconde biologique avait pris 7,7 minutes à l’état fondamental et 8,4 minutes en condition de détente – autant que 35% de temps en moins qu’un simulateur de supercalculateur antérieur. En 2018, un seul détenteur de l’initialisation du supercalculateur IBM Blue Gene / Q à partir de la conception a pris environ 5 minutes et la simulation d’un 2ème du temps biologique a pris environ 12 minutes. Le professeur Nowotny, professeur d’informatique au College of Sussex, a déclaré: «Les simulations à grande échelle de modèles de systèmes neuronaux à pointes sont un outil important pour améliorer notre compréhension de la dynamique et éventuellement du but des esprits. Néanmoins, même les petits mammifères tels que les rongeurs ont à l’achat de 1 × 1012 connexions synaptiques, ce qui signifie que les simulations ont besoin de plusieurs téraoctets de données – une exigence de souvenir peu pratique d’une seule machine de bureau. « Ces études scientifiques changent la donne pour les chercheurs en neurosciences computationnelles et en IA qui sont maintenant en mesure de imite les circuits cérébraux sur leurs propres postes de travail à proximité, cela permet également aux personnes extérieures au monde universitaire de transformer leur PC de jeu vidéo en un superordinateur et d’exploiter de grands réseaux de neurones. «