是神舟電腦董事長吳海軍的頭條號
下面我們來看看吳海軍發表的文章。
首先廣大網友力挺司馬南,他的初衷并不是把聯想往死里整。而是希望聯想對司馬南曝光的視頻內容進行澄清和說明。對于吳海軍的文章,他說的那幾點我也要進行探討。希望吳海軍或者聯想解釋或者澄清。
1、聯想現在做到世界銷量第一。有聯想自身的努力,還有米國干爹給的恩賜在里面。聯想在5G投票里不把票投給高通;不把總部搬到米國;不這樣搞投名狀或者質子行為,米國可能給你那么多芯片!哪天不高興斷供一下子聯想就洗白。產量再多還不是看別人臉色吃飯。這個第一隨時都可以被超過。
2、你去看網上的數據沒有2009年聯想改制時,中科院轉讓的股份27.55億,實際市值達40多億,轉讓時設定很多條款符合條件的只有盧自強。股份買來就掙10多億,這買賣堪比買彩票中大獎。
3、聯想做到第一,這里面有聯想人的不懈努力。確實很不容易。做到第一也不能說聯想有問題不應該指出和糾正。
4、關于聯想高管高薪的問題。你拿演藝圈或者資本市場來說事。這是明顯的混淆視聽。楊元慶的年薪比蘋果CEO庫克高。這合理嗎?聯想的利潤和負債率比蘋果差得多,反而高管的收入卻更高。難道這不是問題嗎?你會說這是董事會決定的。是只有董事會投票表決通過就可以。高管都是董事會成員,自己投自己當然通過。
5、聯想前面很多年在稅收確實給國家貢獻很大。現在你還敢拿這個說事,簡直就是找罵。聯想總部都搬到米國了,可能還像以前那樣只在中國繳稅嗎。米國干爹是吃干飯的,只干活不收稅。誰信吶!
6、聯想現在負債很多,這在電腦行業很常見。可是現在聯想涉及小額貸這是不是有點掛羊頭賣狗肉了。為什么不敢披露和說明。這里面水有點深嗎?
7、聯想國內外價格差距巨大。國內比國外貴一倍甚至更多。當然這里面有關稅之類的差異。敢澄清具體關稅差異是多少。真把我們中國人當冤大頭哇!為什么會價格差距這么大?
8、聯想成為一個全球化企業可以!27名高管有14個是外籍,特別是管技術和財務的都是外籍。中國政府采購聯想時難道不擔心數據信息安全嗎?你看看華為高管就明白了。成為全球化企業就一定要把總部搬到米國。要是這個邏輯的話,中國的其它世界500強企業不是都應該搬到米國去。這個說法想想就很弱智!
9、聯想現在已經在資本家的運作下,變成我們有些看不清楚的企業了。錯綜復雜的子公司及各種收購,讓人瞠目結舌!收購IBM、摩托羅拉、盧森堡銀行等等。這些匪夷所思的操作的目的真的是讓聯想發展壯大嗎?我看未必!
本人是有感而發,如有不妥之處。請各位見諒。歡迎點贊和評論。請發表你們的意見!
計算機連通人腦,直接讀取意識,這不是科幻。
頂尖學術期刊《自然》剛剛在線發表的一項工作就在腦機接口領域向前邁出了一大步。加州大學舊金山分校(UCSF)的神經外科學家Edward Chang教授與其同事開發出一種解碼器,可以將人腦神經信號轉化為語音,為幫助無法說話的患者實現發聲交流完成了有力的概念驗證。
腦機接口(BCI),指的是在人或動物大腦與外部設備之間創建的直接連接,實現腦與設備的信息交換。近年來,這一技術的快速發展正在為那些神經受損或嚴重運動障礙的人們改善生活質量。比如,幫助癱瘓人士靠“想”控制機械臂取物,或是控制屏幕上的光標打出字詞。然而,“意念打字”的速度目前只能達到每分鐘10來個單詞,比正常的人類說話速度要慢得多,還遠不能滿足患者的溝通需求。
因此,一些科學家們試圖解碼大腦中的言語信號,并通過人工語音合成,把“想”的內容真正“說”出來!
本次研究的主要負責人Edward Chang教授是一名神經外科醫生,擅長治療成人癲癇、腦腫瘤等疾病,研究主要集中于語言、運動和情感的腦機制
要挑戰重建語音的難題,需要首先實現對表征語音動作的神經活動進行解碼。一些接受開顱手術的癲癇患者為神經科學家提供了寶貴的數據。由于需要為一些患者定位癲癇發作的源頭,神經外科醫生會通過手術在患者顱內植入電極,以便監測其大腦活動。在此基礎上,研究人員采用了一種叫作高密度腦皮層電圖(ECoG)的技術,直接記錄下受試者大腦皮層的神經活動。
受試者首先按要求大聲讀出幾百條句子,與此同時,研究人員記錄他們大腦的語音產生中心——腹側感覺運動皮層區域的神經活動。
利用循環神經網絡(RNN),研究人員分兩步破譯了采集到的神經信號。第一步,他們將神經信號轉換為表征發音器官動作的信號,包括下巴、喉、嘴唇和舌頭動作相關的腦信號。然后,根據解碼出來的發音器官動作,把信號轉換為說出的詞句。
腦機接口實現語音合成的圖示
這種創新的解碼方法有助于解決重建語音時的聲學失真問題,讓合成的語音更容易被人聽清、聽懂,接下來的測試結果驗證了這一點。研究人員在亞馬遜的眾包任務平臺Mechanical Turk上招募聽眾來辨認解碼器合成的語音,包含325個單詞和101句整句。檢驗測試中,聽眾可以成功地識別出單詞,和對自然語音的感知模式一致。對于合成語音發出的整句,聽眾也能識別出句子的意思。
第一作者Gopala Anumanchipalli博士認為,該結果意味著,這種神經合成語音對于現實世界的應用來說已經達到即刻聽懂的實用程度。
更有意義的是,研究人員還測試了解碼器對于不出聲說話的語音合成能力。一名被試先按要求說出句子,然后默念同一個句子,也就是只有發音的動作、并不發出聲音——這種情形更符合某些患者的實際情況。結果顯示,解碼器對默念動作合成的語音頻譜與同一句句子的有聲頻譜是相似的。
盡管如生物工程學教授Chethan Pandarinath等人在同期《自然》上刊發的評論中所言,這一系統要真正成為一個臨床可行的語音腦機接口還面臨許多挑戰,但毫無疑問的一點是,腦機接口技術的持續進步將讓有發聲障礙的人重新獲得自由說出心聲的能力,與周遭世界重新建立聯系。甚至,腦機接口的發展還會讓更多的人有可能突破人類自身的局限,讓意識的疆界不斷拓展。
編輯:金婉霞責任編輯:姜澎
來源:學術經緯
用電腦表白,就是這么簡單
1:讓電腦自己說出我愛你
所用到的工具:一句代碼
代碼箭頭指向的文字可以自己修改,你可以修改為 “ ***我愛你 ”
然后保存文件,修改文件后綴為VBS。將這個VBS文件發給你要表白的人。當他/她雙擊這個文件,電腦會自己讀出箭頭指向的文字(例如:我這里的代碼保存電腦就會自己讀出“我愛木子淇”)
如果你修改了相應的文字,電腦就會讀出你修改的文字
一個簡單的VBS文件,讓電腦自動替你表白