Categories: 科技新聞

Apple Personal Voice 用 15 分鐘創造自己 AI 版聲音

Published by
Oscar

Apple 昨日(16 日)發新聞稿表示於今年稍後時間推出認知、語音和視覺輔助使用功能,以方便有需要的使用者。

 

為迎接「全球無障礙關注日」,Apple 公布了未來會更新的認知、視覺、聽力和行動方面的輔助使用功能軟件,以及為無法說話或有可能失去說話能力的用户提供創新工具。Apple 與代表不同身心障礙用户的團體組織密切合作,開發能實際改善人們生活的輔助使用功能。

 

Assistive Access — 方便認知有困難人士

今年稍後時間,認知障礙用户將可透過「Assistive Access」功能更輕鬆、更獨立地使用 iPhone 和 iPad。「Assistive Access」將 iPhone 上的「相機」、「相片」、「音樂」、「通話」和「訊息」app 的體驗去蕪存菁,只提供最重要的基本功能,以減輕用户的認知負荷。

▲開啟「Assistive Access」後的相片介面

▲開啟「Assistive Access」後的訊息介面

▲開啟「Assistive Access」後的音樂介面

▲開啟「Assistive Access」後的通話介面

▲開啟「Assistive Access」後的相機介面

 

「Assistive Access」功能提供獨特介面,帶有對比度較高的按鈕及較大的文字,以及為相關受信任的照顧者提供自訂功能的工具,讓他們可以協助有需要人士自訂所需功能。 用户及其受信任的照顧者也可以為主螢幕及 app 揀選更簡潔易用、格線整齊的排版,或者為偏好文字的用户揀選以行列呈現內容的排版。

▲用户可以使用「Assistive Access」指定螢幕排版

 

Live Speech — 機械生成語音

無法說話人士可以在通話和對話時,使用「 Live Speech」將打字轉換為語音

▲「Live Speech」讓用户透過打字讓他們在電話和 FaceTime 通話中大聲說出來

 

Personal Voice —預先錄下聲音再生成

而未來有可能失去說話能力的用戶,則可以事先利用「Personal Voice」功能製作與其聲音類似的合成語音,以便與家人和朋友聯絡。用戶只需先錄製 15 分鐘的語音錄音, Apple 就可以利用 Machine Learning 生成與自己聲音相近的語音。

▲「Personal Voice」讓未來可能會失去聲音的用戶預先錄下自己的原聲,Apple 會利用 Machine Learning 生成與用戶接近的聲音供未來使用

 

Point and Speak —能夠辨識用戶手指指向再大聲朗讀

對於失明或視覺較差的用户,「放大鏡」中的「偵測模式」提供「Point and Speak」功能,可識別用户指向的文字並大聲朗讀,協助他們與家居電器等物件互動。認知、語音和視覺輔助使用功能的全新軟件功能將於今年稍後時間推出。

▲「Point and Speak」功能須配合放大鏡使用,使用時只需要將相機鏡頭對準文字,Point and Speak 可以辨析用戶指向的文字並大聲朗讀

 

 

資料來源:Apple 新聞稿

Published by
Oscar