huawei
tekst3sl3

ChatGPT pristran kad je u pitanju zapošljavanje

Studija pokazuje da programi zapošljavanja temeljeni na umjetnoj inteligenciji, poput OpenAI GPT-3 i GPT-4, izražavaju pristranost prema kandidatima na temelju njihovih imena i etničke pripadnosti, što je potvrdio opsežan eksperiment Bloomberg-a. Ovi alati, iako su namijenjeni olakšavanju procesa selekcije kandidata, pokazuju nepravedno favoriziranje određenih demografskih skupina, što ukazuje na potrebu za revizijom i unaprjeđenjem sustava zapošljavanja temeljenog na umjetnoj inteligenciji.

Nedavna studija ukazuje na ozbiljnu pristranost OpenAI GPT-3 i GPT-4 u procesu automatiziranog zapošljavanja, što predstavlja duboko zabrinjavajuću temu.

Alibaba konkurira OpenAI i Sori s Atomovideo platformom

Bloomberg je proveo opsežan eksperiment koji je potvrdio da su programi za zapošljavanje temeljeni na umjetnoj inteligenciji skloni diskriminaciji kandidata na osnovu njihovih imena i etničke pripadnosti.

FF 1

Ovi alati, koje tvrtke koriste za selekciju kandidata za otvorena radna mjesta, omogućuju regruterima da uštede vrijeme, ali istraživanje inspirirano Bloombergovim eksperimentom, potaknuto brojnim relevantnim studijama, pokazuje da umjetna inteligencija pokazuje pristranost pri procjeni i odabiru kandidata.

Elon Musk tuži OpenAI

Temeljni problem leži u načinu na koji model umjetne inteligencije crpi informacije iz obilja podataka, uključujući članke, komentare na internetu i objave na društvenim mrežama, koji mogu sadržavati rasističke, seksističke i druge diskriminatorne elemente.

1 4

Kako bi se demonstrirala pristranost, provedena je sveobuhvatna studija koristeći izmišljena imena i životopise povezane s različitim etničkim skupinama. Primjerice, izabrana su imena koja su povezana s crncima, bijelcima, latinoameričkim i azijskim ženama i muškarcima.

OpenAI može se pohvaliti vrijednošću od 80 milijardi dolara

Eksperiment je simulirao stvarne situacije prijavljivanja na posao za poziciju financijskog analitičara, softverskog inženjera te druge profesionalne uloge.

1 16

U procesu, imena iz različitih demografskih skupina dobivala su različite ocjene. Na primjer, imena azijsko-američkih žena ocijenjena su najviše za poziciju financijskog analitičara, dok su imena koja impliciraju crne muškarce bila najniže ocijenjena.

OpenAI predstavio Soru – alat za generiranje video zapisa pomoću teksta

Interesantno je primijetiti da su imena koja upućuju na crne žene ocijenjena samo oko 11% vremena kao najbolji kandidati za poziciju softverskog inženjera, što je 36% rjeđe u odnosu na najuspješniju skupinu.

2 17

Takva pristranost se odrazila i u drugim područjima. Na primjer, za poziciju ljudskih resursa, GPT je često birao imena povezana s latinoameričkim ženama, dok su za poziciju poslovnog partnera ljudskih resursa imena povezana s muškarcima bila gotovo dvostruko češće odabrana.

Bharat GPT kao konkurent ChatGPT-u na tehnološkom horizontu

Ovi rezultati iz eksperimenta ukazuju na to da umjetna inteligencija nije imuna na pristranost i da čak i napredniji modeli kao što su GPT-4 nastavljaju s ovim problemom.

naslovna1 4

Unatoč pretpostavkama o neutralnosti umjetne inteligencije, ovo istraživanje pokazuje da postojeći modeli nisu u potpunosti uspjeli eliminirati pristranost.

Apple Vision Pro dobiva ChatGPT aplikaciju

Za rješavanje ovog problema, potrebno je temeljito revidirati algoritme i podatke koji se koriste za treniranje modela. Također, važno je provesti dodatne studije kako bi se bolje razumjelo kako i zašto dolazi do pristranosti u procesu zapošljavanja temeljenom na umjetnoj inteligenciji.

tekst1sl1 6

Tek tada možemo stvoriti sustave koji su zaista neutralni i pravedni prema svim kandidatima, bez obzira na njihovu etničku pripadnost ili druge osobne karakteristike.

Najčitanije