refactor: simplify the vmm design, single responsibility. But using it should with...
[lunaix-os.git] / lunaix-os / kernel / asm / x86 / pfault.c
1 #include <arch/x86/interrupts.h>
2 #include <lunaix/common.h>
3 #include <lunaix/mm/mm.h>
4 #include <lunaix/mm/pmm.h>
5 #include <lunaix/mm/region.h>
6 #include <lunaix/mm/vmm.h>
7 #include <lunaix/sched.h>
8 #include <lunaix/status.h>
9 #include <lunaix/syslog.h>
10
11 static void
12 kprintf(const char* fmt, ...)
13 {
14     va_list args;
15     va_start(args, fmt);
16     __kprintf("PFAULT", fmt, args);
17     va_end(args);
18 }
19
20 extern void
21 __print_panic_msg(const char* msg, const isr_param* param);
22
23 extern void __kernel_heap_start;
24
25 void
26 intr_routine_page_fault(const isr_param* param)
27 {
28     uintptr_t ptr = cpu_rcr2();
29     if (!ptr) {
30         goto segv_term;
31     }
32
33     v_mapping mapping;
34     if (!vmm_lookup(ptr, &mapping)) {
35         goto segv_term;
36     }
37
38     if (!SEL_RPL(param->cs)) {
39         // 如果是内核页错误……
40         if (do_kernel(&mapping)) {
41             return;
42         }
43         goto segv_term;
44     }
45
46     struct mm_region* hit_region = region_get(__current, ptr);
47
48     if (!hit_region) {
49         // Into the void...
50         goto segv_term;
51     }
52
53     x86_pte_t* pte = PTE_MOUNTED(PD_REFERENCED, ptr >> 12);
54     if (*pte & PG_PRESENT) {
55         if ((hit_region->attr & REGION_PERM_MASK) ==
56             (REGION_RSHARED | REGION_READ)) {
57             // normal page fault, do COW
58             cpu_invplg(pte);
59             uintptr_t pa =
60               (uintptr_t)vmm_dup_page(__current->pid, PG_ENTRY_ADDR(*pte));
61             pmm_free_page(__current->pid, *pte & ~0xFFF);
62             *pte = (*pte & 0xFFF) | pa | PG_WRITE;
63             return;
64         }
65         // impossible cases or accessing privileged page
66         goto segv_term;
67     }
68
69     if (!(*pte)) {
70         // Invalid location
71         goto segv_term;
72     }
73     uintptr_t loc = *pte & ~0xfff;
74     // a writable page, not present, pte attr is not null
75     //   and no indication of cached page -> a new page need to be alloc
76     if ((hit_region->attr & REGION_WRITE) && (*pte & 0xfff) && !loc) {
77         cpu_invplg(pte);
78         uintptr_t pa = pmm_alloc_page(__current->pid, 0);
79         *pte = *pte | pa | PG_PRESENT;
80         return;
81     }
82     // page not present, bring it from disk or somewhere else
83     __print_panic_msg("WIP page fault route", param);
84     while (1)
85         ;
86
87 segv_term:
88     kprintf(KERROR "(pid: %d) Segmentation fault on %p (%p:%p)\n",
89             __current->pid,
90             ptr,
91             param->cs,
92             param->eip);
93     terminate_proc(LXSEGFAULT);
94     // should not reach
95 }
96
97 int
98 do_kernel(v_mapping* mapping)
99 {
100     uintptr_t addr = mapping->va;
101     if (addr >= &__kernel_heap_start && addr < L2_BASE_VADDR) {
102         // This is kernel heap page
103         uintptr_t pa = pmm_alloc_page(KERNEL_PID, 0);
104         *mapping->pte = (*mapping->pte & 0xfff) | pa | PG_PRESENT;
105         cpu_invplg(mapping->pte);
106         cpu_invplg(addr);
107         goto done;
108     }
109
110     return 0;
111 done:
112     return 1;
113 }