|
OpenAI Inc. | |
설립일 | |
국가 | |
설립자 | |
경영진 | |
이사회 | |
법인형태 | 비영리 단체 (501(c)(3)) |
산업 | |
상장 | |
기업가치 | 1,570억 달러 (2024년 10월) |
매출 | 13억 달러[5] (2023년 / 추정치) |
지사 | 3곳[6] (2024년) |
주소 | |
![]() |
지배구조 |
이름 | 재직 기간 | 주요 이력 | 비고 |
현직 이사회 구성원 | |||
2018년 4월~ | |||
2023년 11월~ | |||
2024년 3월~ | OpenAI (CEO) | ||
수 데스몬드-헬만 | |||
니콜 셀리그먼 | |||
피지 시모 | |||
폴 나카소네 | 2024년 6월~ | ||
지코 콜터 | 2024년 8월~ | ||
전직 이사회 구성원 | |||
2015~2018년 | |||
샘 올트먼 | 2015~2023년 | OpenAI (CEO) | |
2015~2023년 | OpenAI (사장) | ||
2015~2023년 | OpenAI (수석과학자) | ||
홀든 카노프스키 | 2017~2021년 | 오픈필란트로피 (디렉터) | |
2018~2023년 | |||
2019~2023년 | |||
타샤 매카울리 | 2019~2023년 | 지오심시스템 (CEO) | |
2021~2023년 | |||
헬렌 토너 | 2021~2023년 |
2015~2017년 | 2017~2023년 | 2023~2025년 | 2025년~ |
AI Alignment는 인공 지능이 사람의 목표와 가치에 부합하도록 보장하는 것을 의미합니다. 기본적으로, 인공 지능 시스템은 우리가 의도한 바에 따라 행동해야 합니다. 그러나 이것은 종종 복잡하고 어려운 문제입니다. 예를 들어, 우리가 원하는 목표를 충실히 수행하거나 예상치 못한 방식으로 해석하는 사례가 있을 수 있습니다. AI Alignment는 이러한 위험을 최소화하고, 인간의 목표와 가치를 올바르게 이해하고 따르도록 보장하기 위해 연구 및 기술적 노력이 진행되고 있습니다.
AI Alignment에는 몇 가지 주요 항목이 있습니다:
인간의 의도 이해: 이것은 인공 지능이 인간의 의도와 목표를 정확히 이해하고 그에 맞게 행동하는 것을 보장하는 것입니다. 이것은 언어 이해, 의사 결정 프로세스, 윤리적 고려 등을 포함합니다. 안전성 보장: 인공 지능이 예상치 못한 상황에서도 안전하게 작동할 수 있도록 보장하는 것이 중요합니다. 이는 예를 들어 AI 시스템이 자동차 운전 중에 예상치 못한 상황에 대처할 수 있도록 하는 것과 같은 것입니다. 의도치 않은 부작용 방지: 종종 인공 지능 시스템이 우리가 원하는 것은 맞지만, 예상치 못한 부작용이 발생할 수 있습니다. AI Alignment는 이러한 부작용을 최소화하기 위해 노력합니다. 윤리적 고려: 인공 지능 시스템이 인간의 가치와 윤리적 원칙을 준수하도록 보장하는 것이 중요합니다. 이것은 특정 그룹이나 개인을 불이익하게 하는 행동을 피하고, 인간의 안전과 웰빙을 최우선으로 고려하는 것을 의미합니다.
이러한 항목들은 AI Alignment를 위한 연구와 기술적 개발의 주요 영역입니다.
이 저작물은 CC BY-NC-SA 2.0 KR에 따라 이용할 수 있습니다. (단, 라이선스가 명시된 일부 문서 및 삽화 제외)
기여하신 문서의 저작권은 각 기여자에게 있으며, 각 기여자는 기여하신 부분의 저작권을 갖습니다.
나무위키는 백과사전이 아니며 검증되지 않았거나, 편향적이거나, 잘못된 서술이 있을 수 있습니다.
나무위키는 위키위키입니다. 여러분이 직접 문서를 고칠 수 있으며, 다른 사람의 의견을 원할 경우 직접 토론을 발제할 수 있습니다.
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply. This site is protected by hCaptcha and its Privacy Policy and Terms of Service apply.