Microsoft, güvenlik ve gizlilik endişeleri nedeniyle çalışanlarının ChatGPT'ye erişimini geçici olarak engelliyor. - Dünyadan Güncel Teknoloji Haberleri

Microsoft, güvenlik ve gizlilik endişeleri nedeniyle çalışanlarının ChatGPT'ye erişimini geçici olarak engelliyor. - Dünyadan Güncel Teknoloji Haberleri
  • Bir Microsoft sözcüsü, blokajın bir hata olduğunu ve şirketin LLM’ler için uç nokta kontrol sistemlerini test ederken meydana geldiğini belirtti

    Bu haber, OpenAI’nin bir DDoS saldırısının neden olduğu ChatGPT kesintisini doğrulamasının ardından geldi

    Yüksek Lisans’lar için uç nokta kontrol sistemlerini test ediyorduk ve bunları yanlışlıkla tüm çalışanlar için etkinleştirdik

    Microsoft çalışanlarının, özellikle milyarlarca dolarlık bir yatırım yaparak OpenAI ile ortaklığını genişlettikten sonra, kuruluş içindeki bazı görevleri yerine getirmek için yapay zekayı kullandıkları açıktır

  • Microsoft, güvenlik ve gizlilik endişeleri nedeniyle erişimi kısıtladığını belirtti
  • Microsoft, daha iyi güvenlik ve gizlilik sunan Bing Chat Enterprise ve ChatGPT Enterprise’ın kullanılmasını önerir

    Microsoft yapay zeka güvenlik durumunun zirvesinde

    (Resim kredisi: Gelecek)

    Haziran ayında bir siber güvenlik firması, son 12 ay içinde 100 Ancak, bir CNBC’nin yeni raporu Microsoft çalışanlarının Perşembe günü ChatGPT’ye erişiminin kısa süreliğine kısıtlandığını belirtiyor Bunu akılda tutarak, Microsoft’un yapay zeka destekli araçların kullanımını özellikle güvenlik ve gizlilik kaygıları nedeniyle kısıtlaması tamamen yanlış değil Başkan Biden, bu endişelerin çoğunu ele alan bir Başkanlık Kararnamesi yayınladı, ancak üretken yapay zekanın kontrolden çıkmasını önlemeye yardımcı olacak korkuluklara ve ayrıntılı önlemlere hâlâ acil ihtiyaç var Güvenlik firması ayrıca, saldırganların bu kimlik bilgilerine erişim sağlamak için bilgi çalan kötü amaçlı yazılımlardan yararlandığını belirtti ve kullanıcılara, bilgisayar korsanlarını uzak tutmak için şifrelerini düzenli olarak değiştirmeyi düşünmelerini önerdi büyük dil modelleri üzerinde bir dizi test yürüttü Daha önce de söylediğimiz gibi, çalışanlarımızı ve müşterilerimizi, daha yüksek düzeyde gizlilik ve güvenlik korumasıyla birlikte gelen Bing Chat Enterprise ve ChatGPT Enterprise gibi hizmetleri kullanmaya teşvik ediyoruz Hatamızı tespit ettikten kısa bir süre sonra hizmeti yeniden başlattık

    Ne bilmek istiyorsun

    • Bir göre yeni rapor CNBC tarafından Microsoft çalışanlarının ChatGPT’ye erişimi geçici olarak kısıtlandı Microsoft, konuyla ilgili şu açıklamayı yaptı:

      “Microsoft’un OpenAI’ye yatırım yaptığı ve ChatGPT’nin uygunsuz kullanımı önlemek için yerleşik güvenlik önlemlerine sahip olduğu doğru olsa da, web sitesi yine de bir üçüncü taraf harici hizmetidir ”

      Konuşurken CNBCMicrosoft, kısıtlanan ChatGPT erişiminin bir hata olduğunu belirtti

      Konuya aşina olan kişilere göre Microsoft, “güvenlik ve veri endişeleri” nedeniyle yapay zeka destekli araca erişimi kısa süreliğine kısıtlamaya karar verdi Kesinti, kullanıcıların sohbet robotunun yeteneklerinden tam olarak yararlanmasını engelledi ve bunun yerine onlara hata mesajları verdi

      Microsoft

      Teknolojinin güvenliği ve mahremiyeti konusunda pek çok endişenin olduğu aşikar 000’den fazla ChatGPT kimlik bilgilerinin karanlık web pazarlarında alınıp satıldığını belirten bir rapor yayınladı

    Microsoft’un Çalışma Endeksi Raporu’na göre ankete katılan çalışanların %70’i, teknolojiyi benimsemeye ve sıradan görevleri yerine getirmek için onu iş akışlarına dahil etmeye hazır olduklarını belirtti

    Yapay zeka güvenliği ve gizliliği hakkındaki düşünceleriniz neler? Yorumlarda bize bildirin

    Başka bir rapor, bilgisayar korsanlarının ısındığını ve şüphelenmeyen kullanıcılara kötü niyetli saldırılar gerçekleştirmek için üretken yapay zeka da dahil olmak üzere karmaşık teknikler kullandıklarını belirtti

    Bu, gizlilik riskleri nedeniyle onu kullanırken dikkatli olmanız gerektiği anlamına gelir ve Bu, Midjourney veya Replika gibi diğer harici AI hizmetleri için de geçerli