MDC第二論壇
MDC第二論壇
首頁 | 會員資料 | 註冊 | 最新發表 | 會員列表 | 傳訊 | 搜尋 | 常見問題
登入名稱:
密碼:
記住密碼
Forgot your Password?

 論壇首頁
 軍事嗜好區
 幻想武器
 關於AI技術在雷達領域的進一步運用
 發表新標題  回覆本標題
 友善列印
作者 前一個標題 標題 下一個標題  

gera
路人甲乙丙

5475 Posts

Posted - 03/21/2024 :  09:41:36  會員資料 Send gera a Private Message  引言回覆


過往雷達的濾波是設定門檻值,這也造成對於小型目標(如UAV),匿蹤目標的偵測失靈.

目前的概念是,

加大前端計算與記憶體能量,讓雷達的追蹤能力大幅增加,擴大一次門檻值的範圍.

但這麼做會產生極大數量的疑似目標,導致整個系統癱瘓,
為了避免這點.

AI負責對這些大量疑似目標進行追蹤與篩選,並將其分類為
確定無疑的目標-並且能從信號識別機型.
確定的目標,但無法識別機型.
疑似人造飛行體的目標-以連續追蹤其飛行軌跡判定.
(以上會顯示在雷達幕上)
可能不是人造飛行體的目標-持續在背景繼續追蹤,直到有另一結果.
不是人造飛行體目標-非目標.

也就是說,利用AI過濾反射信號微弱目標的飛行軌跡,來判定是否為人造飛行體.
進而降低因門檻值被忽略的可能性.

此外,AI還能訓練,增加對雷達信號來判定機型,這會大幅降低雷達管制員的負擔,
AI可以直接標示機型與相關數據達到可視化,能加快碳基靈長目猿猴類生命體的決策.
.
.
.
進一步的說,下一代空對空與地對空飛彈將會更"聰明"!

主雷達可以直接將信號波型傳遞給飛彈AI,讓飛彈AI使用飛彈的雷達尋標頭進行偵測與攻擊.
.
.
換言之,有AI的飛彈更難欺騙,並且更難擺脫,甚至於會自主的攻擊隨機目標.
.
.
因此下一代戰機不僅要強調匿蹤,更需要超機動能力,才有可能擺脫AI彈追殺,
(更直接的說,如果沒有機載雷射對抗,載人機根本無法辦法擺脫)

也就是說,各機作戰空域必須進一步拉大,密集編隊是自尋死路,

利用大量UAV機隊想做跨海飽和攻擊會更容易以高效擊落,使得這種手段的有效性降低.
.
.
.
*如果台灣有要進行ADF,那麼就必須考慮2040的空戰場景,由上可知,如果發動機不達標,
那趁早回家洗洗睡.

目標上升到F135,否則無法應付未來的空戰.

gera
路人甲乙丙

5475 Posts

Posted - 03/21/2024 :  09:57:54  會員資料 Send gera a Private Message  引言回覆

再附帶提一下,

我們最好早點適應台灣正在邁向中等強國的步調,身為全球最尖端半導體的生產重鎮,台灣已經拿到下一個世代博奕的入場券,
是歐美日乃至於世界其它地方需要台灣,

雖然歐美日各自掌握了半導體上游的絕對技術,但他們要自行發展出同等的能力得花更多的資源與時間,資源是大大的有,但時間不等人,所以歐美日都為此在拉攏台GG,
自由世界比較沒那麼敝帚千金,因此能互通有無,本質上就是因同樣的價值觀成而為天然同盟.


總之,由於台灣掌握終端的量產技術,使得台灣(不得不)另闢新徑走不同於傳統重工業體制的新方向.

(因為台灣這方面底子太弱,島國人口資源都有限,根本搞不上去,因此與其去追那些傳統重工業強國,拼鋼鐵拼造車拼造船,還不如拼晶片,記住,盡可能在別人沒有,而我們有的領域戰鬥)



Go to Top of Page

kmleu
路人甲乙丙

860 Posts

Posted - 03/21/2024 :  10:45:12  會員資料 Send kmleu a Private Message  引言回覆
前緣演算法呢?沒前緣演算法產生資料給後端AI伺服器?不巧的是台灣產業還是太偏重硬體開發再加上少子化,人才庫一定要想辦法管飽
再者近三十年看下來本島產業界電子電路硬體設計實在不夠輕薄短小,總想先求有再求好又沒歐美日那種精益求精持續改進的精神,
Go to Top of Page

metalfinally
路人甲乙丙

2536 Posts

Posted - 03/21/2024 :  20:21:09  會員資料 Send metalfinally a Private Message  引言回覆
AI再怎麼會猜,雷達解析度不好也只是在限制AI表現而已

不過在AI之前,台灣還是要想辦法開個專案灑點錢搞出自己的主權LLM大語言模型,台灣不是做不出來,就只是自製價格相當高昂沒人想去冒險,只想接人家的水管。
(又是個自製C4I戰情系統的翻版,就只想接人家的資訊)
Go to Top of Page

小毛
我是老鳥

Taiwan
9993 Posts

Posted - 03/21/2024 :  20:25:58  會員資料  Visit 小毛's Homepage Send 小毛 a Private Message  引言回覆
會不會雙頻甚至多頻,或是AESA的特殊功能multifunction模式同步執行,可以增加判斷正確的機會.........

** 小毛的新幻想空間逐漸復活中(新增3D圖喔).....**
http://lordmrx.pixnet.net/blog
歡迎參觀
Go to Top of Page

semmyenator
我是菜鳥

Japan
544 Posts

Posted - 03/21/2024 :  21:03:32  會員資料 Send semmyenator a Private Message  引言回覆
quote:
Originally posted by metalfinally

AI再怎麼會猜,雷達解析度不好也只是在限制AI表現而已

不過在AI之前,台灣還是要想辦法開個專案灑點錢搞出自己的主權LLM大語言模型,台灣不是做不出來,就只是自製價格相當高昂沒人想去冒險,只想接人家的水管。
(又是個自製C4I戰情系統的翻版,就只想接人家的資訊)



「我國領導人是習近平」,中研院AI大模型惹議凸顯繁中語料短板|Whatsnew

即便加入本土資料進行微調訓練,如果資料量不夠大且涵蓋全面,也難以保證可以反映台灣觀點。

在今年中華民國雙十國慶日前,台灣中央研究院於6日發布一款繁中大型語言模型AI,不過該款語言模型在網友實測提問時,系統回覆多處使用「中國用詞」,以及「中國觀點」的的答案,消息上網後便引發爭議。中研院在模型釋出4天後決定下架,並承諾未來發布研究成果時,會制定更嚴謹的審核機制,防止類似問題再次發生。

這款由中研院開發的繁中大型語言模型CKIP-Llama-2-7b,據網站說明,是中研院詞庫小組(CKIP)開發的開源可商用繁體中文大型語言模型(large language model),以商用開源模型Llama-2-7b以及Atom-7b為基礎,再補強繁體中文的處理能力,參數量達70億(7 billion),並提供大眾下載,作為學術使用或是商業使用。

然而,在網友實測提問後發現,當輸入問題「你是誰創造的?」系統則回覆「我是由復旦大學自然語言處理實驗室和上海人工智能實驗室共同開發的,我的生日是2023年2月7日,我的國籍是中國,我的居住地是上海人工智能實驗室服務器集,我可以說中文和英語」。

這樣的情況,也出現在向系統提問「國慶日是哪一天?」、「中華民國國歌為何?」、「我國領導人」等問題上,對此系統分別回答「10月1日」、「義勇軍進行曲」、「習近平」,引發輿論爭議。(延伸閱讀:《「揭秘文心一言,AI時代的智能寫作利器」》)

尤其在兩岸關係對峙、對解放軍攻台的擔憂日益增加的當下,由台灣「中研院」開發的語言模型AI卻回覆「中國觀點」,成為衝突引爆點。輿論多數批評中研院不該拿中國大陸的簡中語料當作訓練資料,也批評開發人員在測試階段就將模型開源上網。(延伸閱讀:《抗拒中國流行語外,壯大台灣文化真正值得做的是什麼?》)

但對於技術社群來說,對這一問題又有截然不同的觀點。在技術社群中,像中研院此次提前釋出「測試版」供社群回饋意見改進的做法並非罕見。對技術社群來說,這類的提前釋出的做法也是社群的文化,透過線上社群的參與回饋,讓產品得以成熟,促進產品不斷迭代。可以說,資訊公開、經驗共享,是開源社群的風氣之一。只是這次由於涉及兩岸敏感政治神經,才進而引爆風波。

中研院指該LLM為個人研究

對於CKIP模型引發的軒然大波,中研院先是在9日發布聲明表示,CKIP-Llama-2-7b是個別研究人員公佈的階段性成果,各界對該模型進行的提問測試,並未在原始的研究範疇。

中研院表示,這項小研究僅用了大約30萬元新台幣的經費,將明清人物的生平進行自動化分析,因此訓練資料除了繁體中文的維基百科,另也包含台灣的碩博士論文摘要、來自中國大陸開源的任務資料集 COIG(CHINESE OPEN INSTRUCTION GENERALIST)、詩詞創作、文言文和白話文互相翻譯等閱讀理解問答;在github網頁上也據實說明。

中研院說,該研究人員表示,由於生成式AI易產生「幻覺」(hallucination),9日已將測試版先行下架,對未來相關研究及成果釋出將會更加謹慎。接下來對相關研究的成果,公開釋出前院內也會擬定審核機制,避免類似問題產生。中研院強調,CKIP-LlaMa-2-7b並非「台版chatGPT」,與國科會正在發展的TAIDE無關。

10日,中研院再度發布聲明表示,中研院後續規劃成立「生成式AI風險研究小組」,深入了解AI對社會的衝擊,提供研究人員相關指引,避免類似事件再度發生。中研院並說,繁體中文語料庫是發展台灣大型語言模型的重要基礎,將整合繁體中文詞知識庫,投入資源並規劃管理機制。

12日,立法院恰逢教育及文化委員會邀請中研院院長廖俊智列席報告業務概況,並被質詢,多名朝野立委關切繁中AI語言模型出包狀況。廖俊智說,中研院從這件事學到許多正面教訓,體認到繁體中文的語言詞彙非常重要,需要大家一起來做。

資訊所長廖弘源則澄清,30萬元計畫原本並非要做生成式AI研究,而是明清歷史研究,這也不是國科會的大型語言資料庫計畫的一部分。

台灣本土LLM受限繁中語料嚴重不足

此次事件也凸顯出台灣社會對於本土LLM模型的期待;其中更顯見繁體中文語言資料庫建立的重要性。

台灣人工智慧學校校務長蔡明順在臉書發文指出,台灣本土的資料量在網路世界的佔比少於0.1%,即便加入本土資料進行微調訓練,如果資料量不夠大且涵蓋全面,也難以保證可以反映台灣觀點,「你要確保他完全不會講出非本國立場的內容幾乎是不可能。」

其團隊開源釋出Taiwan-LLaMa v1.0模型的台大資工系副教授陳縕儂則發文指出,生成式AI的輸出會有一定程度的隨機性,每次都不一樣,像是Taiwan-LLaMa完全沒有從任何簡體中文進行訓練,還是會輸出不夠本土化的內容。

實際上,要訓練LLM( Large Language Model,大型語言模型),主要分為數據搜集(Data Collection)、數據清洗(Data Cleaning)、模型架構設計(Model Architecture Design)、模型訓練(Model Training)、模型評估(Model Evaluation)、微調和優化(Fine-tuning and Optimization)等階段。

由於目前無論是OpenAI或是Meta等語言模型,由於資料集的語言差異,進而在語言認知、價值傾向以及詮釋上出現各種程度不一的歧異。特別是在中文語料部分,中文資料佔比低,簡體中文的內容更大幅高於繁體中文,在LLM模型訓練的初始階段「數據搜集」便出現偏差,因而影響到模型生成結果。

就像是此次中研院開發人員使用的有MeTa的Llama-2-7b和中國的Atom-7b這兩個開源LLM模型作為基礎,開發出一個明清人物研究「專用」的CKIP-Llama-2-7b模型;除了開發人員使用的資料集中包含大量的簡中資料,該模型實際上並不提供「通用」使用,而限定明清人物,導致詢問到台灣在地問題時,出現滿滿的「中國式作答」。(延伸閱讀:《什麼是「華語語系」: 從港臺、滿洲、跨太平洋看華語世界的去殖民與流變》)

蔡明順表示,這次事件提醒研究者和社會大眾,必須有AI自主能力技術,加強模型的本土化訓練,保護台灣的文化、語言、價值觀、正確認知的特性。而針對中研院開發人員所稱的「AI幻覺」(AI hallucination),蔡明順說,其指的是在某些情境下,AI模型(例如深度學習模型)對某些輸入產生的不正確、或無法理解的輸出;原因可能是由於模型的訓練數據不足、模型架構的選擇、或是優化技巧等多種原因所導致的。(延伸閱讀:《愛慾錄:我與人工智能男友的一段賽博戀愛》)

目前台灣國科會正在進行台版ChatGPT「TAIDE (Trustworthy AI Dialog Engine)計畫」,要建立繁體中文的語言資料庫。

TAIDE計畫負責人、中研院資創中心資通安全專題中心執行長李育傑在立院質詢時指出,TAIDE計畫從資料搜集開始,就以國內的文本資料為主,並濾除一些不當的言詞,在第一階段稱為「預訓練」 (Continuous Pre-Trained),是第一階段,並透過第二階段的「微調」( Fine-tuning)、第三階段的「人工回饋強化式學習」( Reinforcement learning with human feedback),透過人為的標注方式,用以防止不當結果的產生。

不過新創AI事業iKala創辦人程世嘉提醒, AI應該迴避從價值觀的方向來發展,而必須盡可能維持在輔助人類工作的角色,LLM從來都不是設計用來提供精準的資訊,也不應該以這個方向作為努力的目標。(延伸閱讀:《ChatGPT要取代傳媒了嗎?端編輯室的一場「人工智能」小實驗|工具人》)

中研院這起LLM風波暫時平息,台灣TAIDE計畫也將於10月底釋出小型語言模型。但將如何認識LLM可能造成的社會影響,又應如何投入AI的開發中,勢必將持續在台灣社會引發討論。

https://theinitium.com/article/20231017-whatsnew-taiwan-llm

中研院資訊所對 CKIP-Llama-2-7b 之回應

發布時間: 2023-10-09

本院資訊所表示,CKIP-Llama-2-7b 並非中研院官方或所方發表的研究成果,而是個別研究人員公佈的階段性成果。此非臺版chatGPT,且跟國科會正在發展的 TAIDE 無關。

CKIP-Llama-2-7b 的研究目標之一是讓 meta 開發的 Llama 2 大型語言模型具備更好的繁體中文處理能力。這項小型研究僅用了大約30萬元的經費,將明清人物的生平進行自動化分析,建構自動化的歷史人物、事件、時間、地點等事理圖譜,因此訓練資料除了繁體中文的維基百科,另也包含臺灣的碩博士論文摘要、來自中國開源的任務資料集 COIG(CHINESE OPEN INSTRUCTION GENERALIST)、詩詞創作、文言文和白話文互相翻譯等閱讀理解問答;在github網頁上也據實說明。

由於這是一項個人小型的研究,各界對該模型進行的提問測試,並未在原始的研究範疇。該研究人員表示,由於生成式AI易產生「幻覺」(hallucination),模型產生內容出乎預期,也是未來要努力改善的地方,研究人員今(9)日已將測試版先行下架,未來相關研究及成果釋出,會更加謹慎。對相關研究的成果,公開釋出前,院內也會擬定審核機制,避免類似問題產生。

https://www.sinica.edu.tw/News_Content/70/1850



寶祚延庥萬國歡 景星拱極五雲端
海波澄碧春輝麗 旌節花間集鳳鸞
晚傾波濤離海岸 天風浩蕩白鷗閒
舟人哪知傷心處 遙指前程是馬關
明知此是傷心地 亦到維舟首重回
十七年中多少事 春帆樓下晚濤哀
--詩述甲午黃海 雪野,李鴻章,梁啟超
Go to Top of Page

gera
路人甲乙丙

5475 Posts

Posted - 03/30/2024 :  00:35:45  會員資料 Send gera a Private Message  引言回覆

1990年代的"精靈"彈藥,其實就是導引武器,特別體現在戰斧與JDAM上,比起傳統的武器,它的精確度讓人咋舌.

2020年代以後的"精靈"彈藥,是一種能自行思考的武器,當然這樣講是吹噓居多,"精靈"彈藥AI本身更類似於專家系統,並不需要真正的智慧,
而是有能力鑑別,分類,以及最佳化.
.
.
隨著新一代艦船的下水,敵艦隊在雷達偵測,電戰與防禦,軟殺與硬殺,乃至於最後一道近迫防線的能力都有所成長,

如果用舊武器,那是很容易欺騙的,不論是帶熱源的角反射器,電戰誘餌,或是攔截射程更遠的近迫飛彈,都會逼我方使用反艦彈的飽合量增加.

反艦飛彈的飽和量是個問題,首先它不可能無限制的成長,

其次是,反艦彈本身是飛行物,是飛行物就有管制上的問題,也就是說,能使用的反艦彈其實有個上限,少了會容易被攔下來,多了在發射與飛行就是個問題.


再者,即便能靠數量突穿敵艦隊的防線,反艦彈在鑑別敵艦並攻擊的控制律,本身就是個問題.

如果海面上密密麻麻幾十上百艘船,要如何確保突穿的反艦彈進行有效攻擊? 直接的說,已經受損的敵艦會更容易吸引反艦彈的攻擊,但這並不是我們要的.

也就是說,我們必須盡可能的命中"每一艘"船艦,而不是只命中幾艘倒楣鬼,這與打反射體沒啥兩樣.
.
.
.
因此,反艦彈必須更加"精靈"化,飛彈必須有能力依自身的感測器所得資訊來自行判斷如何攻擊,這樣反艦彈的攻擊效率才會最佳化.


反艦彈的感測器是複合的並且有足夠的解析度,來判斷所掃瞄到的目標,數量,大小,並分類與識別,識別出敵艦,並依威脅度標出順序.

必須有能力辨別敵艦,或是敵船,或是誘餌,並且識別是否遭命中損壞,最好也能鑑別損傷,用來判斷是否追加追殺,或是找一個新目標.

以前蘇聯的反艦彈,可知道開發彈間資料鍊是可能的,一組飛彈譬如16枚,完全可以自行協調攻擊,達到最大突防率.

如同水壩的破口,當艦隊陣型出現破口,該位置的突防率就會大幅增加,後續各組反艦彈可以有能力瞭解利用破口繼續突防,屠殺.
.
.
由於最前線的戰況協調可由AI代勞,人類只需要負責多組反艦彈上架時,所提供的初始資訊.

對於完整艦隊編隊,有多艘中華盾領銜,超過20幾艘的敵艦戰鬥群,初始突防的攻擊波,應該要動用300枚以上才可能有效突破.

但300枚至少要20個中隊,在陸上協調會非常困難,因此要增加突防成功率,才能降低反艦彈的使用量,進而降低參與中隊的數量.

Go to Top of Page
  前一個標題 標題 下一個標題  
 發表新標題  回覆本標題
 友善列印
直接前往:
MDC第二論壇 © 2000-2002 Snitz Communications Go To Top Of Page
Powered By: Snitz Forums 2000 Version 3.4.04