Yapay Zeka Araçlarında Güncelleme İle Son Bakış: Goolge, Microsoft ve OpenAI…

Yapay Zeka Araçlarında Güncelleme İle Son Bakış: Goolge, Microsoft ve OpenAI…

Geçtiğimiz haftalarda üç büyük şirket, yapay zeka güncellemesi yapmıştı. Google, Microsoft ve OpenAI'ye inanılırsa, yapay zeka çalışma, iletişim kurma ve genel olarak telefonlarımızı ve bilgisayarlarımızı kullanma şeklimizi yenileyecek.

Her üç teknoloji devi de son iki hafta içinde yapay zekanın internetle etkileşimlerimizi şekillendirmedeki rolünü gösterdi. Google, Microsoft ve OpenAI, demolarla dolu etkinlikler düzenledi. Ancak bu vizyonları hayata geçirmek, genel halkın güvenini gerektirecek.

İnsanların AI'nın hayatımızdaki artan dayanağı konusunda şüpheci olduğunu gösteren bazı kanıtlar var. Bir Pew Research araştırması, Amerikalıların %52'si için yapay zekanın artan kullanımı söz konusu olduğunda endişenin heyecandan daha ağır bastığını gösteriyor.

ekran-resmi-2024-05-28-15-27-04.png

Bentley Üniversitesi ve danışmanlık firması Gallup'tan gelen bir rapor, Amerikalıların %79'unun işletmelerin yapay zekayı sorumlu bir şekilde kullanmalarına güvenmediğini gösteriyor.

YAPAY ZEKA GÜVEN KAZANACAK MI?

Güveni kazanmak ve sürdürmek, Google, Microsoft ve OpenAI gibi şirketler için çok önemli olmaktadır. İnsanların bu yeni yapay zeka araçlarını nasıl benimseyeceği merak ediliyor. Bu da bilgi işlemdeki bir sonraki büyük değişimin kazananlarını ve kaybedenlerini belirleyebilir.

ekran-resmi-2024-05-28-15-27-35.png

Gartner'da yapay zeka ve bulut bilişime odaklanan bir analist olan Arun Chandrasekaran, “riskleri yeterince azaltamaz ve yapay zekayı insanlar için güvenilir hale getiremezseniz, tüm bu ilerleme azalabilir” açıklamasını yaptı.

Google, Microsoft ve OpenAI, teknolojinin ne kadar hızlı geliştiğinin altını çizerek, son iki hafta içinde yapay zeka sistemlerinde önemli gelişmeler sergiledi. Güvenin kazanması ise teknoloji editörlerine göre bir daha zaman alacak gibi duruyor.

HABERE YORUM KAT

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
Önceki ve Sonraki Haberler