Open AI SORA 오픈에이아이 소라
인공지능(AI)이 현실 세계에서 상호 작용이 필요한 문제를 해결하는 데 도움이 되도록, 물리적 세계를 이해하고 시뮬레이션할 수 있는 모델을 훈련하는 데 주력하고 있는 이 회사.
이에 소개하는 텍스트-비디오 모델인 Sora는 최대 1분 길이의 비디오를 생성하며 시각적 품질을 유지하고 사용자의 요구사항을 준수하고 있다고 합니다.
Open AI SORA 오픈 에이 아이 소라는 이 회사 팀 구성원들이 중요한 영역의 위험을 평가하는 데 활용되고 있다고 합니다. 그리고 또 이 모델을 발전시키기 위해 시각 예술가, 디자이너 및 영화 제작자들로부터 피드백을 받고 있는 중이라고 합니다.
현재 여러 분야의 전문가들과 협력을 통해 연구 진행 상황을 공유하고 대중에게 곧 출시될 AI 기능에 대한 이해를 제공하고 있는 중이라고 합니다.
이 오픈 에이아이 소라 모델은 다양한 캐릭터, 특정 동작, 그리고 피사체와 배경의 세부 정보를 이해하며, 사용자의 요청뿐만 아니라 이러한 요소들이 실제 세계에서 어떻게 작동하는지도 이해하며 영상을 만들어 낼 수 있다고 합니다.
이 모델은 언어를 깊이 있게 이해하여 사용자의 요구를 정확히 파악하고 감정을 표현하는 매력적인 캐릭터를 생성할 수 있습니다. Sora는 단일 비디오 내에서 캐릭터와 시각적 스타일을 일관되게 유지하며 여러 장면을 만들어 내고 있는 것이 느껴집니다.
하지만 현재 Open AI SORA 오픈에이아이 소라 모델에는 몇 가지 약점들이 있다고 하는데요. 복잡한 장면의 물리학을 정확하게 시뮬레이션하는 데 어려움을 겪을 수 있으며 원인과 결과의 특정 사례를 이해하지 못할 수도 있다고 하네요. 그리고 공간적 세부 사항을 혼한스러워하거나 시간이 지남에 따라 생길 수 있는 상황에 대한 설명에는 어려움을 겪을 수도 있다고 합니다.
Open AI SORA 오픈에이아이 소라사용에 있어서 안전에 대한 부분을 빼놓을 수 없는데, OpenAI 제품에서 Sora를 사용할 수 있도록 조치를 취하는 몇 가지 중요한 조치를 취하는 것입니다. 우리는 잘못된 정보와 혐오스러운 내용, 다양한 편견과 같은 분야의 전문가들이 협력하여 , OpenAI 제품에서 Sora 모델을 테스트한다고 합니다.
여기에 더해서 오픈에이아이 Sora에서 생성된 비디오를 실시간으로 감지해서 오해의 소지가 있는 콘텐츠를 식별하는 도구를 만들어고 있다고 합니다.
배포를 준비하기 위해 새로운 기술을 개발하는 것 외에도, Sora에 적용할 수 있는 DALL·E 3과 같은 기존 보안 방법을 활용하여 제품은 보호받고 있다고 해요.
예를 들어, 당사의 사용자를 위한 제품에는 성인용 콘텐츠, 혐오스러운 이미지, 유명인의 초상화 등이 포함될 수 있으며 이에 대해 텍스트 입력을 필터링하는 중이라고 해요. 또한 생성된 모든 비디오의 프레임을 검토하여 사용자에게 제공되기 전에 사용 규정을 준수하는지 확인하는 강력한 조치를 위한 프로그램도 개발 중이라고 하고 현재 전 세계의 의견을 수렴해서 이러한 신기술을 보다 긍정적으로 사용하도록 유도한다고 합니다.
모든 내용 및 동영상 출처:https://openai.com/sora
'건강' 카테고리의 다른 글
직장내 따돌림과 왕따 문제 개인정신건강 위협 (0) | 2024.02.19 |
---|---|
농담과 유머가 사람의 정신건강에 미치는 영향 (0) | 2024.02.18 |
달리기 보다 걷는 것의 장점에 대한 내용 (0) | 2024.02.16 |
독서가 건강한 정신을 유지 (0) | 2024.02.15 |
과음을 한 다음날 먹기 좋은 음식 (2) | 2024.02.14 |