如題,在此就不誨言了,我的國內英文測驗能力大概就是臺灣高中生頂流
可能就會有人有疑問,這樣的實力拿出去國外,究境是落在什麼水準?
在網上與外國人交流後,發現答案是:
隨便一個俄羅斯中年大叔,可能都可以把你吊打 !
不可否認的,我有快速的克漏字,單字實力,然而,這些顯然比不上長年在歐洲每日接受拉丁文字洗禮的人們。比方說,現在打開維基百科「捷克經濟」英文頁面:
你會說:「啊這我每個字都看得懂!」
對,看得懂,但看得夠快嗎?
當文字出現在你眼前時,相對應的圖象能出現在現前嗎? 還是只是只現中文的翻譯?
當看完文章後,記得起來嗎? 能一字不漏地像閱讀中文一樣舉出一句或兩句話嗎?
或許你可以,但我不行。
至少,在我下定決心再次提升英文前,上面沒有一個是做得到的。
○再舉個更高級的例子:
以下是截錄:
Feature set
When choosing a feature set it might be tempting to go into complicated domain-specific knowledge, but the costs associated make simpler solutions more attractive. HalfKP, explained in detail later, is very simple, fast, and good enough. More sophisticated feature sets have been tried but they usually cannot combat the hit on performance. HalfKP features are easy to calculate, and change little from position to position.
Size also has to be considered. For the 256x2->32->32->1 architecture HalfKP inputs require about 10 million parameters in the first layer, which amounts to 20MB after quantization. For some users it might not be an issue to have a very large set of features, with possibly hundreds of millions of parameters, but for a typical user it's inconvenient. Moreover, increasing the feature set size may reduce the training speed for some implementations, and certainly will require more time to converge.
First set of hidden neurons
The number of outputs in the first layer is the most crucial parameter, and also has the highest impact on speed and size. The costs associated with this parameter are two-fold. For one, it increases the number of operations required when updating the accumulator. Second, for optimized implementations, one must consider the number of available registers - in Stockfish going past 256 neurons requires multiple passes over the feature indices as AVX2 doesn't have enough registers. It also partially determines the size of the first dense linear layer, which also greatly contributes to the total cost.
Further layers
Unlike in typical networks considered in machine learning here most of the knowledge is stored in the first layer, and because of that adding further small layers near the output adds little to accuracy, and may even be harmful if quantization is employed due to error accumulation. NNUE networks are kept unusually shallow, and keeping the size of the later layers small increases performance.
以上的問題變得更加嚴重,第一次看得時候跟本無從下手,也看了看面忘了後面,整篇不知道在說什麼。但其實翻成中文的話,以高中生其實是有能力看得懂的。因此,我下定決心,要將英文上升新的檔次。
總結一下原因:
- 高中學習英文時,多半是整篇文章的純文字學習。然而,語言是現實世界的抽象化,需要有圖像的借助才會更加清晰,「聽到中文會有圖像、情境,英文也就跟著會有」的概念是不對的,因為我們並沒有建立起 「英文 ? 圖像 」的反射關係。
- 國內的考試文章篇短,因此閱讀上不會需要太多短期記憶的藉助。然而,真正的英文文章長度可能是數倍,需要大腦更多的暫存空間來儲文章概念。我們平常閱讀時也會儲存中文文章概念,然而,這與英文其實是相似卻不能互補的。當閱讀英文時,你其實是在用英文的語意、邏輯在思考,不太能可鬼轉中文。
- 當看到一篇文章時,一眼看出想傳達的概念是很重要的。如果你瞄到「黑洞」、「重力」、「時空」,那很大可能這是一篇有關相對論的文章,但我們辦識英文字的速度遠較中文慢,以致會有見樹不見林的問題。
以下是我的解決方法,在半年內提升到可以用全英文給presentation、無痛閱讀所有英文報章雜誌與 youtube。
1. 有聲書
這半年內我聽完地方圖書館內所有的中級-高級英文有聲書,包括哈利波特、魔戒、飢餓遊戲、暮光之城,睡前聽效果最好,一開始聽不懂沒關係,就「懵聽」! 等到大腦習慣了之後,自然而然就抓得單字、句字,漸漸的,隨著故事的發展,情境、圖像的概念就會出來,文字所帶給你的情感也會越來越深。
推薦網站 https://www.listennotes.com/, Youtube
其實只要網路上隨便打 XXX audiobook 就會出現一大堆,挑喜歡的小說聽下去就對了。
2. 加入discord亂聊
這真的超有用,加入幾個你有興趣的外國人群(不要那種大雜燴語言學習群就是了,難以持久且多在亂聊),認真的和裡面的人對話,用你學過的文法、單字把每個句字都儘量寫正確。幾天之後,你就會發現你的翻譯寫作能力大副提升,同時,為了要趕上外國人的對話速度,也會訓練到文字的理解速度。只不過要注意文化的差意,老外的對話環境不像臺灣一樣自由、可亂開玩笑,你開某人某黨某國人玩笑他們可是會很嚴肅地看待的。
3. 寫個程式吧
或許不是每個人都對這有興趣,但都AI時代了,多少接觸一點吧。Coding是一個幾乎是全英文的生態圈,在寫code的時候,時常會遇到要查Documentation(說明書)的情況,這時,就很考驗「抓重點」與「記憶」的能力。運常,Doc都寫得非常簡潔,但條列非常繁雜,讀它的過程會訓練出在茫茫字海中抓到你想要的句子的能力。同時,你也會學會一次記下許多行,整理消化的功夫。同時為了看教學,你會很頻繁的上Youtube查找影片,間接強迫用英文思考、學習,又可建立 英文?影像 的重要關係。
4. 試著在72小時內刷完一本文法書
各位都知道怎麼背單字,因此不加贅述,然而,文法卻是高中常常忽略的重點。其實文法一點都不難,它只是規則的條列,加上英文的文法其實滿有邏輯,很快的看完一本然後寫題目其實是一點也不難的。
建議寫「文字敘述多而不雜」的書,不要條式也不要刷字數版面的。老外其實也沒什麼在管文法,但該有的還是要有,因此太細節的可以忽略,抓到幾個重點就熟能生巧了。
其實,我是理組的,覺得學英文非常無聊。
然而,有好的英文能力真的會讓你的視野增大許多,畢境繁中的環境實在太小了,你也會發現,語言其實一點都不難。隨便一個美國3歲小孩都能說得很流利了,更何況是在座呢?