Google, Hindistan’da AI Destekli Dolandırıcılık Tespiti ve Güvenlik Operasyonlarını Genişletiyor

Google, Hindistan’da dolandırıcılık tespiti ve sahtekarlıkla mücadele için yapay zeka destekli gelişmelerini genişleteceğini duyurdu. Bu, şirketin Amerika Birleşik Devletleri dışındaki en büyük pazarı olan Hindistan’daki yeni Güvenlik Şartı ile gerçekleşiyor.

Hindistan’da dijital dolandırıcılık hızla artıyor. Hindistan hükümetinin anlık ödeme sistemi UPI ile ilgili dolandırıcılık vakaları, geçen yıl %85 oranında artarak yaklaşık 11 milyar Hint rupisi (127 milyon dolar) seviyesine ulaştı. Ayrıca, dolandırıcıların yetkili gibi davranarak video aramalarla para talep ettiği dijital tutuklama dolandırıcılıkları da yaşanıyor.

Google, bu sorunların üstesinden gelmek amacıyla Güvenlik Mühendisliği Merkezini Hindistan’da açtı. Bu merkez, Dublin, Münih ve Malaga’nın ardından dördüncü merkez olarak faaliyet gösterecek.

Geçtiğimiz yıl Google for India zirvesinde duyurulan bu merkez, Google’ın yerel topluluklarla, hükümet, akademi, öğrenciler ve KOBİ’lerle iş birliği yaparak siber güvenlik, gizlilik, güvenlik ve yapay zeka problemlerine çözümler geliştirmesini sağlayacak.

Google, İçişleri Bakanlığı’nın Indian Cyber Crime Coordination Centre (I4C) ile iş birliği yaparak siber suçlar konusunda farkındalık yaratmayı hedefliyor. Bu, şirketin 2023 yılında başlattığı çevrimiçi dolandırıcılık tespit programı DigiKavach ile de destekleniyor.

Hindistan’daki GSec ile Google, çevrimiçi dolandırıcılık ve sahtekarlık, işletmelerin siber güvenliği ve sorumlu yapay zeka oluşturma konularına odaklanacak.

Google, globalde olduğu gibi Hindistan’da da yapay zekayı kullanarak çevrimiçi dolandırıcılıkla mücadele etmeyi ve milyonlarca dolandırıcılık reklamını kaldırmayı hedefliyor.

Örneğin, Google Mesajlar uygulaması, kullanıcıları aydinlatmak amacıyla ayda 500 milyon şüpheli mesajı tespit ediyor. Aynı şekilde, Google Play Protect, Hindistan’da yüksek riskli uygulamaların yüklenmesini engelleyerek 220.000’den fazla benzersiz uygulamanın durdurulmasına yardımcı oldu.

Google’ın güvenlik mühendisliği başkan yardımcısı Heather Adkins, TechCrunch ile yaptığı röportajda yapay zekanın kötüye kullanımı ve dolandırıcılık yöntemleri üzerine endişelerini dile getirdi. Adkins, kötü niyetli aktörlerin AI kullanımını ve bunun getirdiği tehditleri yakından takip ettiklerini belirtti.

Adkins, kullanıcıların çevrimiçi güvenliğini artırmak için çok faktörlü kimlik doğrulama yöntemlerinin önemine de değindi. Şirketin, kullanıcı hesapları için çok faktörlü kimlik doğrulamayı etkinleştirdiğini ve kullanıcıların güvenliğini sağlamak için donanım tabanlı güvenlik anahtarlarını teşvik ettiğini ifade etti.

Hindistan gibi büyük ve çeşitli bir pazarda kullanıcıların şifrelerin yanı sıra daha güvenli kimlik doğrulama yöntemlerine geçiş yapmalarının zor olduğunu kabul eden Adkins, SMS tabanlı kimlik doğrulamanın daha fazla tercih edildiğini belirtti.

Exit mobile version