• <var id="xq0fh"></var>
      <input id="xq0fh"></input>
    1. <table id="xq0fh"><code id="xq0fh"></code></table>
      <table id="xq0fh"></table>
      <table id="xq0fh"><code id="xq0fh"></code></table>
      <table id="xq0fh"></table>
      1. <table id="xq0fh"></table>
        <input id="xq0fh"><rt id="xq0fh"></rt></input>
        开心彩票网开心彩票网官网开心彩票网网址开心彩票网注册开心彩票网app开心彩票网平台开心彩票网邀请码开心彩票网网登录开心彩票网开户开心彩票网手机版开心彩票网app下载开心彩票网ios开心彩票网可靠吗
        首頁 > 學術講座 > 正文
        Neural Network Inversion in Adversarial Setting via Background Knowledge
        發布時間:2019-12-26    


        講座主題

        Neural Network Inversion in Adversarial Setting via Background Knowledge

        主講人姓名及介紹

        梁振凱,新加坡國立大學計算機學院副教授。他的主要研究方向是系統和軟件安全、web安全、移動安全和程序分析。他也是新加坡國家網絡安全研發實驗室的聯合負責人。他曾擔任多個系統安全會議的技術項目委員會成員,包括計算機和通信安全ACM會議、USENIX安全研討會和網絡與分布式系統安全研討會(NDSS),以及NDSS指導小組成員。作為合著者,他獲得了七項最佳/杰出論文獎,包括USENIX安全研討會、FSE和ACSAC。

        報告摘要

        隨著深度學習技術的廣泛應用,對訓練數據和測試數據的安全性提出了新的要求。本文研究的是對抗環境下的模型反演問題,對手的目的是從模型的預測值中推斷出目標模型的訓練數據和測試數據。我們提出了一種方法來訓練第二個神經網絡作為目標模型的逆來執行逆。反演模型可以通過黑箱訪問目標模型進行訓練。我們提出了兩種主要的技巧來訓練對手環境下的反演模型。首先,我們利用對手的背景知識組成一個輔助集來訓練反演模型,它不需要訪問原始訓練數據。第二,我們設計了一種基于截斷的技術來校準反演模型,以便能夠有效地從敵方對受害者用戶數據的部分預測中反演目標模型。

        學術講座
        开心彩票网{{转码主词}官网{{转码主词}网址