Microsoft kündigte an… Eine neue Ära im Bereich der Cybersicherheit beginnt!

In seinem Bestreben, generative KI in alle seine Kreationen einzufügen, hat Microsoft Threat Intelligence entwickelt. „zusammenfassen“Und „Sinn ergeben“Security Copilot eingeführt, ein neues Tool, das darauf abzielt

ANGETRIEBEN MIT GPT-4

Ohne ins Detail zu gehen, hat Microsoft Security Copilot eingeführt, um Informationen über Razzien zu korrelieren und gleichzeitig Sicherheitsereignisse zu priorisieren. Tatsächlich tun das unzählige Tools, aber Microsoft argumentiert, dass Security Copilot, integriert in sein bestehendes Portfolio an Sicherheitsartefakten, durch die generativen KI-Modelle von OpenAI, insbesondere das kürzlich veröffentlichte textgenerierende GPT-4, geeigneter wird.

Charlie Bell, stellvertretender Leiter von Microsoft Security, sagte in einer Erklärung über die Wette: „Fortschritt in der Sicherheit erfordert sowohl Menschen als auch Technologie. Menschliche Kreativität gepaart mit modernsten Tools, die helfen, menschliches Fachwissen schnell und in großem Umfang anzuwenden.“genannt.

„Mit Security Copilot bauen wir eine Zukunft auf, in der jeder Verteidiger mit den Tools und Technologien ausgestattet ist, die erforderlich sind, um die Welt zu einem sichereren Ort zu machen.“er fügte hinzu.



KUNDENDATEN WERDEN WÄHREND DER SCHULUNG DER ANWENDUNG NICHT VERWENDET

Microsoft ging auf eine weit verbreitete Kritik an sprachmodellgesteuerten Diensten ein und betonte, dass das Modell nicht auf Kundendaten trainiert sei. Microsoft erläuterte dieses spezielle Modell, indem es Sicherheitsfragen beantwortete, die beste Vorgehensweise empfahl und Ereignisse und Prozesse zusammenfasste. „um zu erfassen, was andere Ansätze übersehen könnten“ Er behauptet, es hilft. Angesichts der unrealistischen Tendenzen textproduzierender Modelle scheint es jedoch unklar, wie effektiv ein solches Modell in der Produktion sein könnte.

Microsoft räumt ein, dass das spezielle Security Copilot-Modell nicht immer alles richtig macht. Unternehmen, „Künstliche Intelligenz generierte Inhalte können Fehler enthalten“ er schreibt. Während Microsoft Erklärungen für die von ihnen für die Cybersicherheit entwickelte Anwendung für künstliche Intelligenz gab, „Während wir weiterhin aus diesen Interaktionen lernen, passen wir ihre Antworten an, um ausgewogenere, relevantere und hilfreichere Antworten zu erstellen.“Er fügte seine Worte zu seinen Worten hinzu.

QUELLE: NACHRICHTEN7

Neuigkeiten7

MicrosoftModellSicherheit
Comments (0)
Add Comment