tekst3sl3
130
Views

Nedavna studija ukazuje na ozbiljnu pristranost OpenAI GPT-3 i GPT-4 u procesu automatiziranog zapošljavanja, što predstavlja duboko zabrinjavajuću temu.

Alibaba konkurira OpenAI i Sori s Atomovideo platformom

Bloomberg je proveo opsežan eksperiment koji je potvrdio da su programi za zapošljavanje temeljeni na umjetnoj inteligenciji skloni diskriminaciji kandidata na osnovu njihovih imena i etničke pripadnosti.

FF 1

Ovi alati, koje tvrtke koriste za selekciju kandidata za otvorena radna mjesta, omogućuju regruterima da uštede vrijeme, ali istraživanje inspirirano Bloombergovim eksperimentom, potaknuto brojnim relevantnim studijama, pokazuje da umjetna inteligencija pokazuje pristranost pri procjeni i odabiru kandidata.

Elon Musk tuži OpenAI

Temeljni problem leži u načinu na koji model umjetne inteligencije crpi informacije iz obilja podataka, uključujući članke, komentare na internetu i objave na društvenim mrežama, koji mogu sadržavati rasističke, seksističke i druge diskriminatorne elemente.

1 4

Kako bi se demonstrirala pristranost, provedena je sveobuhvatna studija koristeći izmišljena imena i životopise povezane s različitim etničkim skupinama. Primjerice, izabrana su imena koja su povezana s crncima, bijelcima, latinoameričkim i azijskim ženama i muškarcima.

OpenAI može se pohvaliti vrijednošću od 80 milijardi dolara

Eksperiment je simulirao stvarne situacije prijavljivanja na posao za poziciju financijskog analitičara, softverskog inženjera te druge profesionalne uloge.

1 16

U procesu, imena iz različitih demografskih skupina dobivala su različite ocjene. Na primjer, imena azijsko-američkih žena ocijenjena su najviše za poziciju financijskog analitičara, dok su imena koja impliciraju crne muškarce bila najniže ocijenjena.

OpenAI predstavio Soru – alat za generiranje video zapisa pomoću teksta

Interesantno je primijetiti da su imena koja upućuju na crne žene ocijenjena samo oko 11% vremena kao najbolji kandidati za poziciju softverskog inženjera, što je 36% rjeđe u odnosu na najuspješniju skupinu.

2 17

Takva pristranost se odrazila i u drugim područjima. Na primjer, za poziciju ljudskih resursa, GPT je često birao imena povezana s latinoameričkim ženama, dok su za poziciju poslovnog partnera ljudskih resursa imena povezana s muškarcima bila gotovo dvostruko češće odabrana.

Bharat GPT kao konkurent ChatGPT-u na tehnološkom horizontu

Ovi rezultati iz eksperimenta ukazuju na to da umjetna inteligencija nije imuna na pristranost i da čak i napredniji modeli kao što su GPT-4 nastavljaju s ovim problemom.

naslovna1 4

Unatoč pretpostavkama o neutralnosti umjetne inteligencije, ovo istraživanje pokazuje da postojeći modeli nisu u potpunosti uspjeli eliminirati pristranost.

Apple Vision Pro dobiva ChatGPT aplikaciju

Za rješavanje ovog problema, potrebno je temeljito revidirati algoritme i podatke koji se koriste za treniranje modela. Također, važno je provesti dodatne studije kako bi se bolje razumjelo kako i zašto dolazi do pristranosti u procesu zapošljavanja temeljenom na umjetnoj inteligenciji.

tekst1sl1 6

Tek tada možemo stvoriti sustave koji su zaista neutralni i pravedni prema svim kandidatima, bez obzira na njihovu etničku pripadnost ili druge osobne karakteristike.

Article Tags:
·
Article Categories:
Novosti · Tehnikalije
Nino https://preporucamo.com/

Autor mnogih IT članaka, svojevremeno suvlasnik IT portala. Gaji velike osjećaje prema IT sektoru te uživa u njemu (naravno koliko mu to primarni posao dopusti). Svaki članak piše na sebi svojstven način te ima poseban pristup informacijama i donošenju istih.

Comments are closed.