fix: the correct way to detect ahci LBA48 support
[lunaix-os.git] / lunaix-os / kernel / mm / vmm.c
index 1453c89e65b10d505f9f380e19c284538aee5180..445071c39483a7a94a211be9600a345f1ebdc281 100644 (file)
@@ -3,6 +3,9 @@
 #include <lunaix/mm/pmm.h>
 #include <lunaix/mm/vmm.h>
 #include <lunaix/spike.h>
+#include <lunaix/syslog.h>
+
+LOG_MODULE("VMM")
 
 void
 vmm_init()
@@ -51,7 +54,12 @@ vmm_set_mapping(uintptr_t mnt,
         }
 
         // This must be writable
-        l1pt->entry[l1_inx] = NEW_L1_ENTRY(attr | PG_WRITE, new_l1pt_pa);
+        l1pt->entry[l1_inx] =
+          NEW_L1_ENTRY(attr | PG_WRITE | PG_PRESENT, new_l1pt_pa);
+
+        // make sure our new l2 table is visible to CPU
+        cpu_invplg(l2pt);
+
         memset((void*)l2pt, 0, PG_SIZE);
     } else {
         x86_pte_t pte = l2pt->entry[l2_inx];
@@ -64,6 +72,10 @@ vmm_set_mapping(uintptr_t mnt,
         cpu_invplg(va);
     }
 
+    if ((options & VMAP_NOMAP)) {
+        return 1;
+    }
+
     l2pt->entry[l2_inx] = NEW_L2_ENTRY(attr, pa);
     return 1;
 }
@@ -73,8 +85,8 @@ vmm_del_mapping(uintptr_t mnt, uintptr_t va)
 {
     assert(((uintptr_t)va & 0xFFFU) == 0);
 
-    uint32_t l1_index = L1_INDEX(va);
-    uint32_t l2_index = L2_INDEX(va);
+    u32_t l1_index = L1_INDEX(va);
+    u32_t l2_index = L2_INDEX(va);
 
     // prevent unmap of recursive mapping region
     if (l1_index == 1023) {
@@ -101,8 +113,8 @@ vmm_del_mapping(uintptr_t mnt, uintptr_t va)
 int
 vmm_lookup(uintptr_t va, v_mapping* mapping)
 {
-    uint32_t l1_index = L1_INDEX(va);
-    uint32_t l2_index = L2_INDEX(va);
+    u32_t l1_index = L1_INDEX(va);
+    u32_t l2_index = L2_INDEX(va);
 
     x86_page_table* l1pt = (x86_page_table*)L1_BASE_VADDR;
     x86_pte_t l1pte = l1pt->entry[l1_index];
@@ -122,6 +134,25 @@ vmm_lookup(uintptr_t va, v_mapping* mapping)
     return 0;
 }
 
+void*
+vmm_v2p(void* va)
+{
+    u32_t l1_index = L1_INDEX(va);
+    u32_t l2_index = L2_INDEX(va);
+
+    x86_page_table* l1pt = (x86_page_table*)L1_BASE_VADDR;
+    x86_pte_t l1pte = l1pt->entry[l1_index];
+
+    if (l1pte) {
+        x86_pte_t* l2pte =
+          &((x86_page_table*)L2_VADDR(l1_index))->entry[l2_index];
+        if (l2pte) {
+            return PG_ENTRY_ADDR(*l2pte) | ((uintptr_t)va & 0xfff);
+        }
+    }
+    return 0;
+}
+
 void*
 vmm_mount_pd(uintptr_t mnt, void* pde)
 {