OpenAI, ChatGPT Plus를 위한 음성 기능 론칭

Photo by Miguelangel Perez on Unsplash

OpenAI, ChatGPT Plus를 위한 음성 기능 론칭

읽는 시간: 2 분

  • Andrea Miliani

    작성자: Andrea Miliani 테크니컬 라이터

  • 현지화 및 번역 팀

    번역가: 현지화 및 번역 팀 현지화 및 번역 서비스

Open AI는 어제 ChatGPT Plus의 음성 기능을 소수의 구독자에게 공개했습니다. 5월에 열린 OpenAI 봄 업데이트 이벤트에서 약속했던 것처럼, 사용자들은 이제 AI 비서의 청각적 대화 버전을 시도해 볼 수 있게 될 것입니다.

“고급 음성 모드를 ChatGPT Plus의 소수 사용자 그룹에게 점차적으로 전개하고 있습니다.”라고 X에서 OpenAI가 썼습니다, “고급 음성 모드는 더 자연스럽고 실시간 대화를 제공하며, 언제든지 중단할 수 있게 하고, 당신의 감정을 감지하고 반응합니다.”

회사는 알파 버전을 테스트할 사용자들에게 음성 모드를 사용하는 방법을 배우는 데 필요한 지침이 포함된 이메일을 보낼 것이라고 덧붙였습니다.

포브스에 따르면, OpenAI는 안전 문제와 조정 때문에 처음에는 6월에 배포될 것으로 예상되었으나 출시 표준에 도달하기 위해 더 많은 시간이 필요하다고 주장하면서 그 출시를 늦추었습니다. 배우 스칼렛 요한슨이 그녀의 목소리와 “무서울 정도로 비슷하다”고 주장하는 AI 보조의 목소리인 “스카이”에 대해 더 많은 정보를 요청한 후 OpenAI는 후퇴하게 되었습니다.

라이브 이벤트에서 사용된 ‘스카이’ 목소리는 새로운 릴리즈에서 사용할 수 없으며, OpenAI는 목소리의 출처에 대한 추가 정보를 공개하지 않았습니다.

MIT Technology Review에 따르면, GPT4-o에 의해 구동되는 새로운 음성 모델은 Siri와 Alexa에 비해 더 자연스러운 대화를 할 수 있을 뿐만 아니라, 감정을 인식하고, 방해에 대응하며, 텍스트와 시각적 능력을 결합하고 통합할 수 있습니다.

OpenAI는 이번 가을에 음성 인식 챗봇을 더 넓은 대중에게 공개하기 전에, 이 기간 동안 더 많은 피드백을 받기를 기대하고 있습니다. 이 회사는 100명 이상의 외부 테스팅 팀 멤버들과 29개 국가에서 45개 언어로 모델을 테스트했다고 밝혔습니다.

음성 기능을 출시하기 전에 고려된 안전 조치 중 하나는 오디오 딥페이크였습니다. 새로운 음성 모델은 음성 딥페이크를 만들 수 없도록 허용되지 않으며, 이는 배우들과 협력하여 선택된 네 가지 음성만을 사용할 것입니다.

OpenAI는 AI 어시스턴트 모델을 위한 더 많은 기능들, 예를 들어 비디오 및 화면 공유 등을 곧 출시할 것으로 예상하고 있습니다. 단지 며칠 전에만, 이 기술 회사는 Google과 경쟁하게 될 것으로 예상되는 새로운 AI 기반 검색 엔진인 SearchGPT를 출시했습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

더 보기