Máy học – Machine Learning và một vài hạn chế.

Công Nghệ
Máy học – Machine Learning và một vài hạn chế.
Mặc dù học máy (machine learning) chỉ bắt đầu phát triển vào những năm 1990, nhưng nó đã nhanh chóng trở thành một nhánh con phổ biến nhất và cũng có nhiều thành công nhất của AI, một xu thế được thúc đẩy bởi sự ra đời của phần cứng nhanh hơn và bộ dữ liệu lớn hơn. Học máy liên quan chặt chẽ đến thống kê toán học, nhưng nó khác với thống kê ở nhiều khía cạnh quan trọng. Không giống như thống kê, học máy có xu hướng xử lý các bộ dữ liệu lớn, phức tạp (như bộ dữ liệu gồm hàng triệu hình ảnh, mỗi bộ gồm hàng chục nghìn pixel) mà phân tích thống kê cổ điển như phân tích Bayes trở nên không thực tế. Do vậy, học máy, và đặc biệt là học sâu, thiếu (có lẽ là rất thiếu) nền tảng toán học và có khuynh hướng kỹ thuật nhiều hơn. Nó tuân thủ nguyên tắc thực dụng trong đó các ý tưởng thường được kiểm chứng bằng thực nghiệm hơn là được chứng minh một cách chặt trẽ. Trong cuộc sống hàng ngày, hầu hết chúng ta đã quen thuộc với việc mô tả các sự vật, hiện tượng của thế giới bên ngoài qua các khái niệm, các con số, các giác quan…gọi chung là các thuộc tính (feature). Những mô tả đó (tập các thuộc tính) được gọi là các biểu diễn (representation) của sự vật, hiện tượng. Cùng một sự vật, hiện tượng cũng có nhiều cách biểu diến khác nhau, có biểu diễn rất sáng sủa và cũng có biểu diễn rất mờ mịt; có biểu diễn thuận lợi cho việc này nhưng không dễ xử lý ở công việc khác… Ví dụ chúng ta có...

Mặc dù học máy (machine learning) chỉ bắt đầu phát triển vào những năm 1990, nhưng nó đã nhanh chóng trở thành một nhánh con phổ biến nhất và cũng có nhiều thành công nhất của AI, một xu thế được thúc đẩy bởi sự ra đời của phần cứng nhanh hơn và bộ dữ liệu lớn hơn.

Học máy liên quan chặt chẽ đến thống kê toán học, nhưng nó khác với thống kê ở nhiều khía cạnh quan trọng. Không giống như thống kê, học máy có xu hướng xử lý các bộ dữ liệu lớn, phức tạp (như bộ dữ liệu gồm hàng triệu hình ảnh, mỗi bộ gồm hàng chục nghìn pixel) mà phân tích thống kê cổ điển như phân tích Bayes trở nên không thực tế. Do vậy, học máy, và đặc biệt là học sâu, thiếu (có lẽ là rất thiếu) nền tảng toán học và có khuynh hướng kỹ thuật nhiều hơn.

Nó tuân thủ nguyên tắc thực dụng trong đó các ý tưởng thường được kiểm chứng bằng thực nghiệm hơn là được chứng minh một cách chặt trẽ. Trong cuộc sống hàng ngày, hầu hết chúng ta đã quen thuộc với việc mô tả các sự vật, hiện tượng của thế giới bên ngoài qua các khái niệm, các con số, các giác quan…gọi chung là các thuộc tính (feature). Những mô tả đó (tập các thuộc tính) được gọi là các biểu diễn (representation) của sự vật, hiện tượng.

Cùng một sự vật, hiện tượng cũng có nhiều cách biểu diến khác nhau, có biểu diễn rất sáng sủa và cũng có biểu diễn rất mờ mịt; có biểu diễn thuận lợi cho việc này nhưng không dễ xử lý ở công việc khác… Ví dụ chúng ta có thể gắn cho mỗi người một cái tên và một số định danh (duy nhất cho mỗi người). Với “tên”, chúng ta rất dễ nhớ nhưng cũng rất khó khăn khi cần phải xác định một con người cụ thể trong trường hợp trùng tên; ngược lại, “định danh” hoàn toàn xác định chính xác “ai là ai” nhưng gây phiền phức rất lơn khi bắt con người phải nhớ “định danh” của ai đó.

Các biểu diễn cũng có thể chuyển đổi cho nhau để phù hợp với từng nhu cầu cụ thể. Ví dụ chúng ta có thể biểu diễn một hàm số trên miền thời gian và cũng có thể biến đổi chúng về biểu diễn trên miền tần số bằng chuỗi fourier thông qua một ánh xạ mang tên biến đổi fourier. Ánh xạ này cho chúng ta nhìn thấy hình ảnh sáng sủa của một hàm “rối rắm” trong miền thời gian như tổng của các hàm tuần hoàn đơn giản.

Cách nhìn mới cho phép chúng ta áp dụng các công cụ phù hợp để tạo ra các ứng dụng có ý nghĩa hơn (ví dụ trong xử lý tín hiệu). Mục đích của học máy là tìm cách biến đổi các dữ liệu đầu vào thành các dữ liệu đầu ra có ý nghĩa hơn. Nói một cách khác, một mô hình học máy (machine learning model) sẽ ánh xạ dữ liệu từ một không gian biểu diễn vào một không gian biểu diễn khác mà trên đó chúng ta có thể hiểu rõ hơn về dữ liệu ban đầu. Chính vì vậy học máy cũng được gọi là là học biểu diễn (representation learning) hay học thuộc tính (feature learning). Một biểu diễn chính là một cách nhìn vào dữ liệu để biểu diễn hoặc mã hóa chúng.

Chẳng hạn, một hình ảnh màu có thể được mã hóa ở định dạng RGB (đỏ-lục-lam) hoặc ở định dạng HSV (hue-saturation-value): đây là hai cách biểu thị khác nhau của cùng một dữ liệu. Một số công việc có thể khó khăn với một biểu diễn nhưng có thể trở nên dễ dàng với một biểu diễn khác. Ví dụ, việc “chọn tất cả các pixel màu đỏ trong hình ảnh” đơn giản hơn ở định dạng RGB, trong khi đó “làm cho hình ảnh ít bão hòa hơn” lại đơn giản hơn ở định dạng HSV. Tất cả các mô hình học máy đều là việc tìm kiếm các biểu diễn thích hợp cho dữ liệu đầu vào của chúng – biến đổi dữ liệu của bộ dữ liệu làm cho một công việc nào đó trở nên dẽ dàng hơn, chẳng hạn như phân loại các đối tượng.

Quay trở lại ví dụ về phép biến đổi fourier. Phép biến đổi này là thành quả lao động có ý nghĩa vô cùng lớn đồng thời cũng chặt trẽ về mặt lý thuyết của những bộ óc siêu việt và được viết ra thành một công thức tường minh (tức là đã được thuật toán hóa). Tuy nhiên đời không như mơ. Trong thực tế thường không có sẵn (và thậm chí không tồn tại) những món ăn thịnh soạn chờ đợi chúng ta thưởng thức.

Với những trường hợp như vậy, học máy chính là người đấu bếp tạo ra các món ăn (các biểu diễn) từ nguyên liệu ban đầu là dữ liệu. Nói một cách hình tượng, học máy làm thay bộ não con người trong việc tìm kiếm các ánh xạ biến đổi biểu diễn ban đầu của dữ liệu thành dạng biểu diễn có ý nghĩa hơn, trừu tượng và bất biến hơn (ổn định hơn). Điều này cũng cắt nghĩa tại sao nền tảng toán học của học máy còn khá sơ khai. Trong vài năm gần đây, nhiều tác giả đang cố gắng xây dựng nền móng toán học cho học máy khi liên hệ bài toán học máy với các phương pháp giải bài toán ngược (Inverse Problem).

Từ cách nhìn như vậy chúng ta có thể phân biệt hai dạng học máy: học nông (shallow learning) và học sâu (deep learning).Thuật ngữ “deep learning” là cách nói đời thường và mang nhiều sắc thái tiếp thị đôi khi dẫn tới nhầm lẫn. Những người xa lạ với chuyên ngành học máy khi gặp thuật ngữ này thường nghĩ tới việc học một điều gì đó sâu sắc tới ngọn nguồn. Thực chất thuật ngữ “học sâu” ám chỉ việc áp dụng mốt cách tuần tự một chuỗi (lớn hơn 2 và trong thực tế ứng dụng có thể lên tới hàng ngàn) các anh xạ từ không gian biểu diễn này sang một không gian biểu diễn khác, mỗi kết quả (biểu diễn) của ánh xạ ở bước trước sẽ là đầu vào cho ánh xạ ở bước sau để tạo ra một biểu diễn mới mang nhiều ý nghĩa hơn.

Mỗi biểu diễn được goi là một tầng (layer). Chính vì thế học sâu cũng được gọi là “học biểu diễn phân tầng” (layered representations learning) hay “học biểu diễn phân cấp” “hierarchical representations learning”. Trong học sâu, việc học các biểu diễn phân tằng (layered representations) thông thường (hầu hết) được cài đặt dựa trên mô hình của mạng thần kinh (neural networks). Điều này cũng dẫn đến sự hiểu lầm rằng học sâu hoạt động như bộ não hoặc mô phỏng nó. Không giống mạng thần kinh được phát triển một phần nhờ vào cảm hứng từ sự hiểu biết của cúng ta về bộ não, học sâu chỉ là một framework toán học dành cho việc học các biểu diễn từ dữ liệu.

Trái với học sâu, các cách tiếp cận khác trong học máy biến đổi dữ liệu chỉ qua 1 hoặc 2 biểu diễn được gọi là học nông. Những đại diện tiêu biểu của học nông là Decision Trees, Naive Bayes, SVM (Support Vector Machine).

Sự khác biệt giữa học sâu và học nông không chỉ thể hiện về mặt kiến trúc mà còn ở những tính chất đặc trung mà chúng cần có khi áp dụng vào các bài toán khác nhau.
Nếu như với học nông việc xây dựng biểu diễn chủ yếu đặt lên vai con người thông qua “feature engineering” (hay “feature selection”) và đòi hỏi tri thức khá sâu về lĩnh vực ứng dụng thì trái lại học sâu có thể học được các biểu diễn trực tiếp từ dữ liệu mà cần rất ít các tri thức tiên nghiệm (như biến đổi và chuỗi fourier, Bayes…).

Có thể bạn quan tâm: Vị trí machine learning job in vietnam lương cao

Chính vì thế nó cũng được gọi bằng thuật ngữ thể hiện sát với bản chất hơn “feature learning”. Một nhiếp ảnh gia sử dụng công cụ biểu diễn phẳng là các pixel không phải lúc nào cũng ghi nhận được thần thái của nhân vật như bức ký họa nhân vật đó với những nét vẽ (feature) rất đơn giản cảm nhân được của một danh họa. Các “danh họa” như vậy đã được xây dựng trên cơ sở học sâu và có mặt khắp nơi trong các ứng dụng của Google, Facebook, Baidu… tạo nên lợi ích rất lớn.

Một đặc tính quý giá nhất của học sâu dưới quan điểm lý thuyết độ phức tạp tính toán là nó cung cấp cho chúng ta một biểu diễn compact của dữ liệu. Điều này cũng giống như phương pháp Phân tích thành phần chính (Principal Component Analysis – PCA) trong xử lý dữ liệu trên không gian tuyến tính nhẵm giảm số chiều của không gian dùng để biểu diễn dữ liệu – một phương pháp feature selection rất quen thuộc trong các cách tiếp cận học nông. Việc giảm số chiều của biểu diễn có ý nghĩa rất lớn để vượt qua “Lời nguyền của số chiều” (“The curse of dimensionality”) – cách nói ám chỉ hiện tượng bùng nổ tổ hợp trong lưu trữ và tính toán theo số chiều của biểu diễn.

Để thấy rõ hơn sức mạnh biểu diễn của kiến trúc sâu, chúng ta xem xét cài đặt một hàm logic n biến bằng mạch logic. Nếu sử dụng mạch logic nông (như dạng bảng chân lý) đòi hỏi 2**n phần tử tính toán – một việc không khả thi với n đủ lớn -; nhưng với kiến trúc sâu số phần tử tính toán cần thiết giảm đi đáng kể. Lý thuyết cũng chứng minh rằng luôn tồn tại những hàm có thể biểu diễn compact bằng một kiến trúc sâu k tầng nhưng lại phải biểu diễn bằng số lượng hàm mũ các phần tử tính toán khi dùng kiến trúc có k-1 tầng.

Học sâu cũng đồng thời tạo nên tiền đề cho việc biểu diễn phân tán (distributed representation), tính toán phân tán, tính toán song song…khi cho phép lưu trử, xử lý các thuộc tính học được trên nhiều thiết bị tính toán ở nhiều vị trí khác nhau về địa lý. Nó cũng tiềm ấn hy vọng cung cấp một công cụ mới cho việc phát triển transfer learning, multi-task learning – những nhu cầu cơ bản của AI – trong tương lai khi các thuộc tính, các biểu diễn trung gian học được từ một ứng dụng này có thể được sử dụng trong các ứng dụng khác.
Với những ưu điểm kể trên nhiều người lạc quan đã cho rằng “no more features engineering”. Trên thực tế, điều đó không hoàn toàn đúng. Luôn có sự đánh đổi giữa kiến thức tiên nghiệm, lượng dữ liệu đào tạo, khả năng khái quát hóa của các mô hình học được và khó khăn trong việc huấn luyện chúng.

Mặc dù học học máy, đặc biệt là học sâu, đã dẫn đến những thành tựu đáng chú ý trong những năm gần đây, nhưng kỳ vọng về những gì lĩnh vực sẽ có thể đạt được trong thập kỷ tới có xu hướng bị cường điệu hơn nhiều so với những gì có thể. Dưới đây liệt kê một vài rào cản lý thuyết mà học máy chưa thể vượt qua.

“Cho tôi dữ liệu, tôi sẽ sáng tạo lại thế giới”.Đó là sự cường điệu về học máy làm mê hoặc nhiều người và phản ánh sự chuyển hướng từ các phương pháp hướng mô hình trong AI (Model-driven AI, Symbolic AI) khi mục tiêu xây dựng mô hình cho các miền ứng dụng phức tạp tỏ ra không khả thi (ví dụ các hệ chuyên gia – expert systems) sang các phương pháp hướng dữ liệu (Data-driven AI).

Bảo toàn thông tin (conservation of information) là một thuật ngữ mới xuất hiện trong cuốn The Limits of Science xuất bản năm 1984. Trong cuốn sách ngắn gọn, xuất sắc này, tác giả Peter Medawar (nhà sinh vật học, chủ nhân giải Nobel) lý giải bản chất và những hạn chế của việc theo đuổi khoa học. Ba bài tiểu luận của ông liên quan đến một số câu hỏi lớn nhất mà con người biết đến: Khoa học có thể xác định sự tồn tại của Thiên Chúa không? Có một “phương pháp khoa học” nào mà tất cả các bí mật của vũ trụ có thể được khám phá? Peter Medawar đã chỉ ra rằng các hệ thống toán học và tính toán bị giới hạn trong việc tạo ra các hệ quả logic từ một tập hợp tiên đề (hoặc điểm bắt đầu), và do đó không thể tạo ra thông tin mới (mọi hệ quả logic đã tiềm ẩn ngay trong tập các tiên đề) và gọi đó là Định luật bảo toàn thông tin “Law of Conservation of Information”. Định luật này được chúng minh một cách tường minh trong nhiều lĩnh vực AI khác nhau (vd. Phan Đình Diệu, Nguyễn Minh Hải trong logic xác xuất).

Để hiểu ảnh hưởng của Định luật bảo toàn thông tin tới học máy, chúng ta cần thấy bản chất của học máy là tìm ra một biểu diễn tốt nhất giải thích cho mối quan hệ giữa các dữ liệu đầu vào với các dữ liệu đầu ra được kỳ vọng. Đó là một bài toán tối ưu với các ràng buộc chính là dữ liệu. Sau khi hệ thống học máy đã được huấn luyện chúng ta nhận được một mô hình (biểu diễn) giải thích tốt nhất cho dữ liệu. Khi bổ xung một dữ liệu mới tức là chúng ta thêm ràng buộc vào bài toán tối ưu cũ. Ràng buộc mới này có thể “tương thích” với các ràng buộc cũ, hay nói cách khác nó không làm thay đổi miền ràng buộc của bài toán, ta vẫn nhận được biểu diễn cũ. Điều đó có nghĩa dữ liệu mới đã được hệ thống “nhìn thấy” từ góc nhìn của mình (biểu diễn học được). Trường hợp ngược lại, ràng buộc bổ xung sẽ thay đổi miền ràng buộc và vì vậy để giải thích nó, hệ thống phải tìm kiếm một biểu diễn mới – nghiệm tối ưu của bài toán có thêm ràng buộc bổ xung. Một cách hình tượng, biểu diễn cũ không phù hợp để giải thích dữ liệu mới, tức là không “nhìn thấy” dữ liệu mới. Đây cũng là hạn chế chính khiến các hệ thống học máy không thể “ngoại suy” ra những gì chưa được học.

Để khắc phục nhược điểm này của các phương pháp hướng dữ liệu, các nhà nghiên cứu thường đề xuất kết hợp nó với các phương pháp hướng mô hình. “No Free Lunch Theorem” và “Ugly Ducking Theorem”. Đây là một “nút thắt cổ chai” khi cần trả lời câu hỏi “Thuật toán nào là tốt nhất cho học máy?”.

Để đánh giá hiệu quả của thuật toán chúng ta sử dụng tập dữ liệu kiểm tra (testing set).
Trong trường hợp tập dữ liệu kiểm tra hoàn toàn độc lập với tập dữ liệu huấn luyện (training set) chúng ta bị khống chế bới Định luật bảo toàn thông tin và vì vậy mọi thuật toán đều tồi tệ. Khi tập huấn luyện rất lớn và hai tập hợp chồng lấn lên nhau, các hệ thống học máy trở thành những học trò “học vẹt” để trả thi (kiểm tra mức độ thuộc bài) và không có khả năng trừu tượng hóa.

Định lý “No Free Lunch” chỉ ra rằng không tồn tại một thuật toán vượt trội thuật toán khác trong mọi tập dữ liệu có được. Hay nói cách khác, sai số trung bình trên mọi tập dữ liệu là như nhau đối với mọi thuật toán. Một thuật toán “tốt hơn” trong ứng dụng này có thể “tồi tệ” đối với ứng dụng khác. Điều này cản trở lớn tới việc scalling up các thuật toán học máy.
Tương tụ như “No Free Lunch Theorem”, định lý “Ugly Ducking Theorem” cũng khẳng định rằng không có tập thuộc tính (biểu diến) nào là “tốt nhất” nếu không xét đến các giả thiết bổ xung. Điều này cũng góp phần phủ định tư duy “no more features engineering” đã nhắc tới ở trên.

Để thay lời kết của bài này tôi xin trích dẫn ý kiến của Margaretta Colangelo – người có hơn 30 năm kinh nghiệm trong công nghệ phần mềm tại thung lũng Silicon với hơn 60 công bố giá trị về Deep Tech, AI và y sinh học hiện đại đồng thời tham gia điều hành nhiều tổ chức nghiên cứu trên thế giới – khi bà nhắc chúng ta chớ nên quên lãng giá trị của dữ liệu nhỏ cũng như khả năng trừu tượng hóa kỳ diệu của con người so với máy móc và kêu gọi nghiên cứu phát triển các phương pháp AI đòi hỏi ít dữ liệu hơn:

“Tất cả mọi thứ đều là dữ liệu nhỏ trước khi chúng ta có dữ liệu lớn. Những khám phá khoa học của thế kỷ 19 và 20 đều được thực hiện bằng cách sử dụng dữ liệu nhỏ. Darwin đã sử dụng dữ liệu nhỏ. Các nhà vật lý đã thực hiện tất cả các tính toán bằng tay, do đó họ chỉ sử dụng dữ liệu nhỏ. Tuy nhiên, họ đã khám phá ra những quy luật đẹp nhất và cơ bản nhất của tự nhiên. Hơn nữa, họ nén chúng thành các quy tắc đơn giản dưới dạng các phương trình thanh lịch. Einstein là nhà vô địch điều này với E = mc². Mặc dù người ta đã ước tính rằng có lẽ 60% đến 65% trong số 100 phát minh lớn nhất của thời đại chúng ta thực sự dựa trên dữ liệu nhỏ, các phát triển AI hiện tại dường như quá tập trung vào dữ liệu lớn mà quên đi giá trị của việc quan sát các mẫu nhỏ”

Có thể bạn quan tâm: Vị trí machine learning job in vietnam lương cao

Station D via Minh Hai Nguyen

Bài viết liên quan

Bộ cài đặt Laravel Installer đã hỗ trợ tích hợp Jetstream

Bộ cài đặt Laravel Installer đã hỗ trợ tích hợp Jetstream

Bài viết được sự cho phép của tác giả Chung Nguyễn Hôm nay, nhóm Laravel đã phát hành một phiên bản chính mới của “ laravel/installer ” bao gồm hỗ trợ khởi động nhanh các dự án Jetstream. Với phiên bản mới này khi bạn chạy laravel new project-name , bạn sẽ nhận được các tùy chọn Jetstream. Ví dụ: API Authentication trong Laravel-Vue SPA sử dụng Jwt-auth Cách sử dụng Laravel với Socket.IO laravel new foo --jet --dev Sau đó, nó sẽ hỏi bạn thích stack Jetstream nào hơn: Which Jetstream stack do you prefer? [0] Livewire [1] inertia > livewire Will your application use teams? (yes/no) [no]: ... Nếu bạn đã cài bộ Laravel Installer, để nâng cấp lên phiên bản mới bạn chạy lệnh: composer global update Một số trường hợp cập nhật bị thất bại, bạn hãy thử, gỡ đi và cài đặt lại nha composer global remove laravel/installer composer global require laravel/installer Bài viết gốc được đăng tải tại chungnguyen.xyz Có thể bạn quan tâm: Cài đặt Laravel Làm thế nào để chạy Sql Server Installation Center sau khi đã cài đặt xong Sql Server? Quản lý các Laravel route gọn hơn và dễ dàng hơn Xem thêm Tuyển dụng lập trình Laravel hấp dẫn trên Station D

By stationd
Principle thiết kế của các sản phẩm nổi tiếng

Principle thiết kế của các sản phẩm nổi tiếng

Tác giả: Lưu Bình An Phù hợp cho các bạn thiết kế nào ko muốn làm code dạo, design dạo nữa, bạn muốn cái gì đó cao hơn ở tầng khái niệm Nếu lập trình chúng ta có các nguyên tắc chung khi viết code như KISS , DRY , thì trong thiết kế cũng có những nguyên tắc chính khi làm việc. Những nguyên tắc này sẽ là kim chỉ nam, nếu có tranh cãi giữa các member trong team, thì cứ đè nguyên tắc này ra mà giải quyết (nghe hơi có mùi cứng nhắc, mình thì thích tùy cơ ứng biến hơn) Tìm các vị trí tuyển dụng designer lương cao cho bạn Nguyên tắc thiết kế của GOV.UK Đây là danh sách của trang GOV.UK Bắt đầu với thứ user cần Làm ít hơn Thiết kế với dữ liệu Làm mọi thứ thật dễ dàng Lặp. Rồi lặp lại lần nữa Dành cho tất cả mọi người Hiểu ngữ cảnh hiện tại Làm dịch vụ digital, không phải làm website Nhất quán, nhưng không hòa tan (phải có chất riêng với thằng khác) Cởi mở, mọi thứ tốt hơn Bao trừu tượng luôn các bạn, trang Gov.uk này cũng có câu tổng quát rất hay Thiết kế tốt là thiết kế có thể sử dụng. Phục vụ cho nhiều đối tượng sử dụng, dễ đọc nhất nhất có thể. Nếu phải từ bỏ đẹp tinh tế – thì cứ bỏ luôn . Chúng ta tạo sản phẩm cho nhu cầu sử dụng, không phải cho người hâm mộ . Chúng ta thiết kế để cả nước sử dụng, không phải những người đã từng sử dụng web. Những người cần dịch vụ của chúng ta nhất là những người đang cảm thấy khó sử dụng dịch...

By stationd
Hiểu về trình duyệt – How browsers work

Hiểu về trình duyệt – How browsers work

Bài viết được sự cho phép của vntesters.com Khi nhìn từ bên ngoài, trình duyệt web giống như một ứng dụng hiển thị những thông tin và tài nguyên từ server lên màn hình người sử dụng, nhưng để làm được công việc hiển thị đó đòi hỏi trình duyệt phải xử lý rất nhiều thông tin và nhiều tầng phía bên dưới. Việc chúng ta (Developers, Testers) tìm hiểu càng sâu tầng bên dưới để nắm được nguyên tắc hoạt động và xử lý của trình duyệt sẽ rất hữu ích trong công việc viết code, sử dụng các tài nguyên cũng như kiểm thử ứng dụng của mình. Cách để npm packages chạy trong browser Câu hỏi phỏng vấn mẹo về React: Component hay element được render trong browser? Khi hiểu được cách thức hoạt động của trình duyệt chúng ta có thể trả lời được rất nhiều câu hỏi như: Tại sao cùng một trang web lại hiển thị khác nhau trên hai trình duyệt? Tại sao chức năng này đang chạy tốt trên trình duyệt Firefox nhưng qua trình duyệt khác lại bị lỗi? Làm sao để trang web hiển thị nội dung nhanh và tối ưu hơn một chút?… Hy vọng sau bài này sẽ giúp các bạn có một cái nhìn rõ hơn cũng như giúp ích được trong công việc hiện tại. 1. Cấu trúc của một trình duyệt Trước tiên chúng ta đi qua cấu trúc, thành phần chung và cơ bản nhất của một trình duyệt web hiện đại, nó sẽ gồm các thành phần (tầng) như sau: Thành phần nằm phía trên là những thành phần gần với tương tác của người dùng, càng phía dưới thì càng sâu và nặng về xử lý dữ liệu hơn tương tác. Nhiệm...

By stationd
Thị trường EdTech Vietnam- Nhiều tiềm năng nhưng còn bị bỏ ngỏ tại Việt Nam

Thị trường EdTech Vietnam- Nhiều tiềm năng nhưng còn bị bỏ ngỏ tại Việt Nam

Lĩnh vực EdTech (ứng dụng công nghệ vào các sản phẩm giáo dục) trên toàn cầu hiện nay đã tương đối phong phú với nhiều tên tuổi lớn phân phối đều trên các hạng mục như Broad Online Learning Platforms (nền tảng cung cấp khóa học online đại chúng – tiêu biểu như Coursera, Udemy, KhanAcademy,…) Learning Management Systems (hệ thống quản lý lớp học – tiêu biểu như Schoology, Edmodo, ClassDojo,…) Next-Gen Study Tools (công cụ hỗ trợ học tập – tiểu biểu như Kahoot!, Lumosity, Curriculet,…) Tech Learning (đào tạo công nghệ – tiêu biểu như Udacity, Codecademy, PluralSight,…), Enterprise Learning (đào tạo trong doanh nghiệp – tiêu biểu như Edcast, ExecOnline, Grovo,..),… Hiện nay thị trường EdTech tại Việt Nam đã đón nhận khoảng đầu tư khoảng 55 triệu đô cho lĩnh vực này nhiều đơn vị nước ngoài đang quan tâm mạnh đến thị trường này ngày càng nhiều hơn. Là một trong những xu hướng phát triển tốt, và có doanh nghiệp đã hoạt động khá lâu trong ngành nêu tại infographic như Topica, nhưng EdTech vẫn chỉ đang trong giai đoạn sơ khai tại Việt Nam. Tại Việt Nam, hệ sinh thái EdTech trong nước vẫn còn rất non trẻ và thiếu vắng nhiều tên tuổi trong các hạng mục như Enterprise Learning (mới chỉ có MANA), School Administration (hệ thống quản lý trường học) hay Search (tìm kiếm, so sánh trường và khóa học),… Với chỉ dưới 5% số dân công sở có sử dụng một trong các dịch vụ giáo dục online, EdTech cho thấy vẫn còn một thị trường rộng lớn đang chờ được khai phá. *** Vừa qua Station D đã công bố Báo cáo Vietnam IT Landscape 2019 đem đến cái nhìn toàn cảnh về các ứng dụng công...

By stationd