전체 기사
모든 기간의 기사를 검색하고 필터링할 수 있습니다.
언론사 (복수 선택 가능)
연도
인기 키워드
정렬
필터 적용됨:
"언어"
-
총 11개 기사 (1/1 페이지)
대규모 언어 모델(LLM)은 인간의 '우리 대 그들' 식의 사회적 편향을 반영할 수 있다.
이러한 모델은 인간이 작성한 많은 텍스트를 학습하므로 특정 자극, 아이디어 또는 그룹을 선호하는 경향을 나타낼 수 있다.
연구는 AI 모델의 편향이 사회적 불평등을 심화시킬 수 있다는 점을 시사한다.
기사 원문 보기
모잠비크 북부 지역 주민들이 꿀잡이새와 소통할 때 지역적으로 다른 "방언"을 사용한다는 연구 결과가 나왔다.
이는 인간 언어가 다양화되는 방식과 유사한 놀라운 유사성을 보여준다.
케이프타운 대학교 연구진과 국제 공동 연구진이 협력하여 연구를 진행했다.
기사 원문 보기
몬트리올 대학교의 연구팀은 대규모 언어 모델(LLM)의 창의성에 대한 비교 연구를 진행했다.
ChatGPT와 같은 생성형 AI 시스템의 창의성을 인간과 비교 분석했다.
AI 선구자 요슈아 벤지오 교수도 연구에 참여했다.
기사 원문 보기
ChatGPT와 같은 대규모 언어 모델이 던전 앤 드래곤 게임을 배우고 있다.
이 게임은 AI 에이전트가 장기간 독립적으로 작동해야 하는 환경을 제공한다.
던전 앤 드래곤은 AI의 장기적인 의사 결정 능력을 평가하는 데 유용한 테스트 환경이다.
기사 원문 보기
가트너는 생성형 AI의 환각 현상을 최소화하기 위한 8가지 해법을 제시했다.
특화 모듈 설정 및 사용자 중심 지침 등이 해법에 포함된다.
'AI 모델의 환각 위험을 최소화하는 전략' 보고서를 통해 해결 방안을 제시했다.
기사 원문 보기
카카오가 자체 개발한 차세대 언어모델 ‘카나나-2’를 업데이트하고 4종 모델을 오픈소스로 추가 공개했다.
이번에 공개된 모델은 에이전틱 AI 구현을 위한 도구 호출 능력이 강화되었다.
엔비디아 A100 수준의 GPU에서도 원활히 구동 가능하도록 최적화되어 중소기업에서도 활용 가능하다.
기사 원문 보기
인공지능 모델이 일부 과학 분야에서 유용하지만, 실험실 안전 지식 부족으로 많은 실험에서 신뢰할 수 없다는 연구 결과가 발표되었다.
대규모 언어 모델과 시각-언어 모델 모두 실험실 안전 지식에서 부족함을 드러냈다.
AI 모델에 대한 과신은 연구자들을 위험에 빠뜨릴 수 있으므로 주의가 필요하다.
기사 원문 보기
비큐AI가 자체 구축한 데이터셋을 활용해 초경량 소형언어모델 'RDP-N1'을 개발했다.
오픈소스 7B 기반 모델을 PEFT 방식으로 학습시켰다.
양자화 기술로 모델 용량을 줄이고 성능을 향상시켰다.
기사 원문 보기
Economic Inquiry 연구는 특정 지역의 이민 태도 변화가 다른 지역으로 확산되는 방식과 미디어 언어 및 소셜 네트워크의 역할을 밝힌다.
언어와 사회적 연결망이 정치적 태도 형성에 영향을 미친다.
연구 결과는 이민 관련 정책 및 사회적 통합에 대한 이해를 높이는 데 기여한다.
기사 원문 보기
네덜란드 기업 AFAS는 AI 챗봇 답변의 정확성을 검증하는 새로운 프레임워크를 개발했다.
이 프레임워크는 챗봇이 생성한 답변을 사람이 검토하기 전에 검증한다.
챗봇의 정확성 향상은 고객과의 커뮤니케이션 효율성을 높일 수 있다.
기사 원문 보기