Governments, social scientists, technologists, and even the heads of AI organizations are expressing concerns about the potential misuse of the power unleashed by Foundation Models and Generative AI. Many nations and organizations have already started taking steps to regulate this powerful technology to prevent possible misuse and disruption of the societal fabric. Fear and concerns are synonymous with the approach toward nuclear technology worldwide. The teams of the Object Management Group (OMG) Responsible Computing Initiative launched a Tiger team to study and evaluate the potential concerns regarding Generative AI Techniques (GAIT) and recommend ways to channel the capabilities of GAIT responsibly to benefit society. Specific objectives include investigations on how to: - Instill trust and reduce bias in the data used to build GAI models. - Recommend proper and ethical use of AI models whilst protecting the intellectual rights of authors, artists, and other professionals. - Regulate the proliferation of AI models to ensure no disruptive effects on employment, society, and the environment. - Educate the consumers, administrators, and governmental bodies on the dangers and limitations of excessive use of AI models. The different tracks of this initiative are: • Ensure trustworthy Generative AI Models, which must be based on accurate and unbiased data. • Impact on the Labor market, especially many white-collar jobs like copywriters, interpreters, and even professionals like investment advisors, editors, lawyers, customer support professionals, creative writers, doctors, etc. • Issues related to IP, copyright violation, ownership, royalty, etc. • Impact on the environment with the power-hungry deep learning process to build(train) GAI models. Michael Linehan (OMG) and Cheranellore Vasudevan (IBM) will present their thoughts as they start their work on this initiative.

Hora

14:00 - 15:00 hs GMT+1

Organizador

Object Management Group
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Septiembre / 2025 372 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 01 de Septiembre de 2025
Mar 02 de Septiembre de 2025
Mié 03 de Septiembre de 2025
Jue 04 de Septiembre de 2025
Vie 05 de Septiembre de 2025
Sáb 06 de Septiembre de 2025
Dom 07 de Septiembre de 2025
Lun 08 de Septiembre de 2025
Mar 09 de Septiembre de 2025
Mié 10 de Septiembre de 2025
Jue 11 de Septiembre de 2025
Vie 12 de Septiembre de 2025
Sáb 13 de Septiembre de 2025
Dom 14 de Septiembre de 2025
Lun 15 de Septiembre de 2025
Mar 16 de Septiembre de 2025
Mié 17 de Septiembre de 2025
Jue 18 de Septiembre de 2025
Vie 19 de Septiembre de 2025
Sáb 20 de Septiembre de 2025
Dom 21 de Septiembre de 2025
Lun 22 de Septiembre de 2025
Mar 23 de Septiembre de 2025
Mié 24 de Septiembre de 2025
Jue 25 de Septiembre de 2025
Vie 26 de Septiembre de 2025
Sáb 27 de Septiembre de 2025
Dom 28 de Septiembre de 2025
Lun 29 de Septiembre de 2025
Mar 30 de Septiembre de 2025
Mié 01 de Septiembre de 2025
Jue 02 de Septiembre de 2025
Vie 03 de Septiembre de 2025
Sáb 04 de Septiembre de 2025
Dom 05 de Septiembre de 2025

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado