開了本新書《我在小白文裡升級》,懇請各位書友給點收藏,推薦,留言!螞蟻叩謝!
****************
其實黃海濱老早在米國的時候,在瞭解過手術機器人的設計,以及工作原理之後,就曾經想過自己攢一臺機器人出來。
其實對他這樣的天才而言,只要瞭解了這種設備的工作原理,那麼自己造一臺也就並不難。
就比如那機械臂系統,機械手腕,以及對末端夾具的控制系統,其實都可以稍稍做出一些改變。
而此前,他就已經制定好了方案,甚至有些都已經申請了專利了。
在說說醫生的操控系統這一塊,這也是他在米國期間主攻的科研方向。
雖然早年這直覺感官公司研發的機器人是脫胎於斯坦福大學的研究院,但後來他們也和米國的多所大學展開過密切的合作。
其中就包括黃海濱供職的MIT,當時他在MIT參加的幾個項目組,做的就是給這手術機器人研發配套的控制系統。
說起和工業機器人最大不同的地方,就是這手術機器人的控制系統了。
工業機牀的控制系統,是完全不用顧及工件的感受的。
他們只要按照設計者的要求,在工件上進行加工就可以了。
可是手術機器人就不行了,他的工作系統要做的就是一個三鏈接。
首先要把醫生鏈接到設備上,然後在讓醫生通過設備,於病人相連接。
在之後,就是要把病人的反饋,傳遞給醫生,讓醫生執行好下一步的操作。
就比如當醫生控制機械臂,進入術區,接觸到病人的術區,距離多少最合適?
一公分的時候,剛好就有足夠的操作空間,而在前進一公分,可能機械臂就直接把病人給懟死了。
所以這套系統,對感知的要求非常重要,所以對傳感器的要求也非常高。
還好這各種傳感器,對於米國人來說,也根本就不是什麼問題。
而現在在國內,傳感器其實就是一個大難題,因爲國內的傳感器真的是弱爆了。
我們和世界主流傳感器強國比起來,在這個領域的差距,甚至差距還要大。
要知道傳感器纔是未來,就比如某些人天天掛在嘴邊,什麼物聯網時代要到來。
就把萬物互聯說的好像很簡單,確實聽道理這萬物互聯真的好像很簡單。
就是用互聯網遠程遙控,操作各種初代智能設備。
可問題是,你這智能設備工作的時候,採用的是什麼邏輯。
就比如掃地機器人,在工作的時候,前面已經是牆了,他該怎麼感知到前面是牆壁,要繞道走?
這就需要傳感器來告知他了。
而所以在將來的智能設備上,我們需要的將是成千上萬的傳感器。
而在這方面,說句實話,我們真的是弱爆了。
現在全球一共有兩萬多種全品類的傳感器,而真正高精尖的,幾乎都掌握在美日德三國的手心裡。
其中最強大的,就是米國!
而我們國家,雖然號稱工業全品類都能生產,可說道傳感器,我們國內卻只能生產三千種左右。
而且還大多集中在低端,低精度的傳感器種類。
至於高端的,比如光學,聲學,震動傳感,甚至味道傳感,這些我們都有嚴重缺失。
此前黃海濱就最是爲這個感到頭疼,不過前段時間,他知道了星火科技這麼一家默默無聞的企業。
因爲第九實驗室自己攢了不少設備,就是從他們哪裡採購的傳感器。
而他們的傳感器,用起來那是非常的不錯,甚至在黃海濱看來,是一點都不比米國日本的傳感器要差。
所以這方面的問題,也算暫時解決了。
而有了傳感器,那麼手術機器人的操作系統設計,就沒那麼難了!
因爲他在米國這麼多年,其實主要乾的就是這部分的工作。
其實早年達芬奇手術機器人的出品公司,直覺外科公司,就是和MIT合作的。
手術機器人的軟件和硬件開發,其實有很多一部分都是MIT的團隊幫這家公司完成的。
而黃海冰在MIT的時候,參加過的幾個軟件開發項目組,其實就是幫助直覺外科公司完善達芬奇的操作系統的。
所以在這方面,他有着非常豐富的經驗。
再後來他去了硅谷,加盟谷歌之後,在谷歌的醫療服務部門,又參加了谷歌主導的醫療機器人的硬件開發。
正是在硬件機械臂方面他有繞開米國人專利的方案,而且在系統設計方面,他也完全可以獨立設計一套出來。
所以黃海濱對自己攢出一臺手術機器人來,就更是多了幾分勝算!
不過現在說起制約他的最後一道難題,那就是手術機器人3D成像問題了。
也就是手術導航技術!
而這套技術,可以說就是手術機器人的控制系統的起始關鍵步驟!
說的直白一點,就是在手術的時候,如何能讓手術機器人的機械臂,準確的抵達術區。
要知道以往醫生手工作業的時候,因爲可以直接在病人肚子上開刀,把術野直接暴露出來。
所以就可以很容易的找到病人的患病部位,進行接下來的操作。
可使用手術機器人就不一樣了,因爲這種設備的原理,就是智能內窺鏡手術。
說白了就是不開刀,在病人肚子上打孔,然後把機械臂伸進去,直接抵達病人的患病部位,展開手術。
可問題是每個人的肚子裡面內臟長得大小,形狀都是不一樣的。
而你的機械臂探入進去之後,如何能避開那些關鍵的要害部位,不破壞血管,然後準確的抵達手術區域,這就是一個大難題。
畢竟機械臂可不像人手一樣,可軟可硬,這玩意就是硬邦邦的金屬。
如果一個路線走錯了,你可能就直接把病人懟一個肝臟破裂,到時候手術還沒開始,病人就掛掉了。
所以這時候就需要手術導航技術登場了!
其實這套技術原理也很簡單,就是使用手術機器人手術之前,醫院要給病人拍攝各種射線照片。
從X光,到CT,再到PET,又或者是MRI,你全都得來一遍。
然後專門的醫生,會根據這些不同的透視圖片,來進行3D建模造型。
然後把病人病患處的3D造型,在主操作檯的電腦裡成像。
要求成像還原的比例,那必須是百分之一百的。
然後造型建模成功之後,醫生會在手術之前,操作機器人,在模擬環境下,對手術路徑進行模擬實驗。
比如機械臂進入的角度,深度,以及機械臂末端停在什麼位置,然後鎖死機械臂等等。
在手術之前都要進行多次練習,一直到熟練位置。
進行多次練習之後,醫生們找到手感,纔會展開手術。
而這時手術的成功機率,就已經從原來的可能百分之五十不到,提升到了百分之八十,甚至更多。
而這也正是,手術機器人給人做手術,價格非常昂貴的一個主要原因。
因爲幾乎所有的高價成像設備你都要來一遍,才能完成3D建模的工作。
而這方面,其實咱們也同樣是比較弱的,因爲3D建模,可是需要一套非常牛掰的軟件工具的。
而這方面,卻同樣是咱們最缺失的技術。
不過在第九實驗室,這卻根本就不是問題,因爲咱們剛好就有自助體檢中心,那裡面的3D透視成像設備,可是黃海濱見過最牛掰的……
而也正是因爲這套3D透視成像設備,纔是黃海濱辭掉米國那邊的工作,轉頭加盟第九實驗室的一個重要原因。
其實他一直以來的理想,都是自己研發出一臺手術機器人出來。
此前雖然也有很多難題,但那些難題,如果想辦法,都是可以繞過去的。
但唯獨這透視成像,3D建模這一塊,一直是黃海濱最頭疼的問題。
一方面是那些所有的設備,使用成本太高,另外一方面就是3D建模的工具,一直都是國外大公司嚴格把控的技術核心奧義。
要不然你以爲,爲啥到現在爲止全世界,也就只有米國的直覺感官公司能夠生產手術機器人。
就連德國和日本在硬技術實力方面那麼強,他們爲什麼搞不出來這樣的機器人?
差,就差在了這個地方。
這個定位導航的原理聽起來很簡單,但真要做到,那卻絕對是最難的一個部分,因爲一個搞不好,你就把病人給懟死在手術牀上了。
很可能手術還沒開始,就已經結束了。
所以這個建模的技術,纔是最難的步驟。
你要把X光,CT機,還有PET,MRI等等透視成像設備拍攝出來的圖片,採集出來的數據,輸入到一個系統內,然後生成一個一比一的病人體內環境的模型。
然後使用計算機,來進行虛擬模擬練習,這樣才能找到機械臂進入病人體內的最佳路徑,以及最佳手術的方案。
可以說沒有這個步驟,你手術根本就不用展開進行了!