MIPS: KVM: Set CP0_Status.KX on MIPS64
[deliverable/linux.git] / arch / mips / kvm / entry.c
index fb2cbf653474eb22733621b8d059c42adbaede40..c824bfc4daa0f6aab777b2507859bf95ac6a2a38 100644 (file)
 
 #define CALLFRAME_SIZ   32
 
+#ifdef CONFIG_64BIT
+#define ST0_KX_IF_64   ST0_KX
+#else
+#define ST0_KX_IF_64   0
+#endif
+
 static unsigned int scratch_vcpu[2] = { C0_DDATA_LO };
 static unsigned int scratch_tmp[2] = { C0_ERROREPC };
 
@@ -120,12 +126,12 @@ static void kvm_mips_build_save_scratch(u32 **p, unsigned int tmp,
                                        unsigned int frame)
 {
        /* Save the VCPU scratch register value in cp0_epc of the stack frame */
-       uasm_i_mfc0(p, tmp, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_MFC0(p, tmp, scratch_vcpu[0], scratch_vcpu[1]);
        UASM_i_SW(p, tmp, offsetof(struct pt_regs, cp0_epc), frame);
 
        /* Save the temp scratch register value in cp0_cause of stack frame */
        if (scratch_tmp[0] == 31) {
-               uasm_i_mfc0(p, tmp, scratch_tmp[0], scratch_tmp[1]);
+               UASM_i_MFC0(p, tmp, scratch_tmp[0], scratch_tmp[1]);
                UASM_i_SW(p, tmp, offsetof(struct pt_regs, cp0_cause), frame);
        }
 }
@@ -138,11 +144,11 @@ static void kvm_mips_build_restore_scratch(u32 **p, unsigned int tmp,
         * kvm_mips_build_save_scratch().
         */
        UASM_i_LW(p, tmp, offsetof(struct pt_regs, cp0_epc), frame);
-       uasm_i_mtc0(p, tmp, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_MTC0(p, tmp, scratch_vcpu[0], scratch_vcpu[1]);
 
        if (scratch_tmp[0] == 31) {
                UASM_i_LW(p, tmp, offsetof(struct pt_regs, cp0_cause), frame);
-               uasm_i_mtc0(p, tmp, scratch_tmp[0], scratch_tmp[1]);
+               UASM_i_MTC0(p, tmp, scratch_tmp[0], scratch_tmp[1]);
        }
 }
 
@@ -171,19 +177,13 @@ void *kvm_mips_build_vcpu_run(void *addr)
         */
 
        /* k0/k1 not being used in host kernel context */
-       uasm_i_addiu(&p, K1, SP, -(int)sizeof(struct pt_regs));
+       UASM_i_ADDIU(&p, K1, SP, -(int)sizeof(struct pt_regs));
        for (i = 16; i < 32; ++i) {
                if (i == 24)
                        i = 28;
                UASM_i_SW(&p, i, offsetof(struct pt_regs, regs[i]), K1);
        }
 
-       /* Save hi/lo */
-       uasm_i_mflo(&p, V0);
-       UASM_i_SW(&p, V0, offsetof(struct pt_regs, lo), K1);
-       uasm_i_mfhi(&p, V1);
-       UASM_i_SW(&p, V1, offsetof(struct pt_regs, hi), K1);
-
        /* Save host status */
        uasm_i_mfc0(&p, V0, C0_STATUS);
        UASM_i_SW(&p, V0, offsetof(struct pt_regs, cp0_status), K1);
@@ -192,10 +192,10 @@ void *kvm_mips_build_vcpu_run(void *addr)
        kvm_mips_build_save_scratch(&p, V1, K1);
 
        /* VCPU scratch register has pointer to vcpu */
-       uasm_i_mtc0(&p, A1, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_MTC0(&p, A1, scratch_vcpu[0], scratch_vcpu[1]);
 
        /* Offset into vcpu->arch */
-       uasm_i_addiu(&p, K1, A1, offsetof(struct kvm_vcpu, arch));
+       UASM_i_ADDIU(&p, K1, A1, offsetof(struct kvm_vcpu, arch));
 
        /*
         * Save the host stack to VCPU, used for exception processing
@@ -210,7 +210,7 @@ void *kvm_mips_build_vcpu_run(void *addr)
         * Setup status register for running the guest in UM, interrupts
         * are disabled
         */
-       UASM_i_LA(&p, K0, ST0_EXL | KSU_USER | ST0_BEV);
+       UASM_i_LA(&p, K0, ST0_EXL | KSU_USER | ST0_BEV | ST0_KX_IF_64);
        uasm_i_mtc0(&p, K0, C0_STATUS);
        uasm_i_ehb(&p);
 
@@ -223,7 +223,7 @@ void *kvm_mips_build_vcpu_run(void *addr)
         * interrupt mask as it was but make sure that timer interrupts
         * are enabled
         */
-       uasm_i_addiu(&p, K0, ZERO, ST0_EXL | KSU_USER | ST0_IE);
+       uasm_i_addiu(&p, K0, ZERO, ST0_EXL | KSU_USER | ST0_IE | ST0_KX_IF_64);
        uasm_i_andi(&p, V0, V0, ST0_IM);
        uasm_i_or(&p, K0, K0, V0);
        uasm_i_mtc0(&p, K0, C0_STATUS);
@@ -258,7 +258,7 @@ static void *kvm_mips_build_enter_guest(void *addr)
 
        /* Set Guest EPC */
        UASM_i_LW(&p, T0, offsetof(struct kvm_vcpu_arch, pc), K1);
-       uasm_i_mtc0(&p, T0, C0_EPC);
+       UASM_i_MTC0(&p, T0, C0_EPC);
 
        /* Set the ASID for the Guest Kernel */
        UASM_i_LW(&p, T0, offsetof(struct kvm_vcpu_arch, cop0), K1);
@@ -267,20 +267,20 @@ static void *kvm_mips_build_enter_guest(void *addr)
        uasm_i_andi(&p, T0, T0, KSU_USER | ST0_ERL | ST0_EXL);
        uasm_i_xori(&p, T0, T0, KSU_USER);
        uasm_il_bnez(&p, &r, T0, label_kernel_asid);
-        uasm_i_addiu(&p, T1, K1,
+        UASM_i_ADDIU(&p, T1, K1,
                      offsetof(struct kvm_vcpu_arch, guest_kernel_asid));
        /* else user */
-       uasm_i_addiu(&p, T1, K1,
+       UASM_i_ADDIU(&p, T1, K1,
                     offsetof(struct kvm_vcpu_arch, guest_user_asid));
        uasm_l_kernel_asid(&l, p);
 
        /* t1: contains the base of the ASID array, need to get the cpu id  */
        /* smp_processor_id */
-       UASM_i_LW(&p, T2, offsetof(struct thread_info, cpu), GP);
+       uasm_i_lw(&p, T2, offsetof(struct thread_info, cpu), GP);
        /* x4 */
        uasm_i_sll(&p, T2, T2, 2);
        UASM_i_ADDU(&p, T3, T1, T2);
-       UASM_i_LW(&p, K0, 0, T3);
+       uasm_i_lw(&p, K0, 0, T3);
 #ifdef CONFIG_MIPS_ASID_BITS_VARIABLE
        /* x sizeof(struct cpuinfo_mips)/4 */
        uasm_i_addiu(&p, T3, ZERO, sizeof(struct cpuinfo_mips)/4);
@@ -307,12 +307,14 @@ static void *kvm_mips_build_enter_guest(void *addr)
                UASM_i_LW(&p, i, offsetof(struct kvm_vcpu_arch, gprs[i]), K1);
        }
 
+#ifndef CONFIG_CPU_MIPSR6
        /* Restore hi/lo */
        UASM_i_LW(&p, K0, offsetof(struct kvm_vcpu_arch, hi), K1);
        uasm_i_mthi(&p, K0);
 
        UASM_i_LW(&p, K0, offsetof(struct kvm_vcpu_arch, lo), K1);
        uasm_i_mtlo(&p, K0);
+#endif
 
        /* Restore the guest's k0/k1 registers */
        UASM_i_LW(&p, K0, offsetof(struct kvm_vcpu_arch, gprs[K0]), K1);
@@ -347,17 +349,15 @@ void *kvm_mips_build_exception(void *addr, void *handler)
        memset(labels, 0, sizeof(labels));
        memset(relocs, 0, sizeof(relocs));
 
-       /* Save guest k0 */
-       uasm_i_mtc0(&p, K0, scratch_tmp[0], scratch_tmp[1]);
-       uasm_i_ehb(&p);
+       /* Save guest k1 into scratch register */
+       UASM_i_MTC0(&p, K1, scratch_tmp[0], scratch_tmp[1]);
 
-       /* Get EBASE */
-       uasm_i_mfc0(&p, K0, C0_EBASE);
-       /* Get rid of CPUNum */
-       uasm_i_srl(&p, K0, K0, 10);
-       uasm_i_sll(&p, K0, K0, 10);
-       /* Save k1 @ offset 0x3000 */
-       UASM_i_SW(&p, K1, 0x3000, K0);
+       /* Get the VCPU pointer from the VCPU scratch register */
+       UASM_i_MFC0(&p, K1, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_ADDIU(&p, K1, K1, offsetof(struct kvm_vcpu, arch));
+
+       /* Save guest k0 into VCPU structure */
+       UASM_i_SW(&p, K0, offsetof(struct kvm_vcpu_arch, gprs[K0]), K1);
 
        /* Branch to the common handler */
        uasm_il_b(&p, &r, label_exit_common);
@@ -395,12 +395,13 @@ void *kvm_mips_build_exit(void *addr)
        /*
         * Generic Guest exception handler. We end up here when the guest
         * does something that causes a trap to kernel mode.
+        *
+        * Both k0/k1 registers will have already been saved (k0 into the vcpu
+        * structure, and k1 into the scratch_tmp register).
+        *
+        * The k1 register will already contain the kvm_vcpu_arch pointer.
         */
 
-       /* Get the VCPU pointer from the scratch register */
-       uasm_i_mfc0(&p, K1, scratch_vcpu[0], scratch_vcpu[1]);
-       uasm_i_addiu(&p, K1, K1, offsetof(struct kvm_vcpu, arch));
-
        /* Start saving Guest context to VCPU */
        for (i = 0; i < 32; ++i) {
                /* Guest k0/k1 saved later */
@@ -409,28 +410,24 @@ void *kvm_mips_build_exit(void *addr)
                UASM_i_SW(&p, i, offsetof(struct kvm_vcpu_arch, gprs[i]), K1);
        }
 
+#ifndef CONFIG_CPU_MIPSR6
        /* We need to save hi/lo and restore them on the way out */
        uasm_i_mfhi(&p, T0);
        UASM_i_SW(&p, T0, offsetof(struct kvm_vcpu_arch, hi), K1);
 
        uasm_i_mflo(&p, T0);
        UASM_i_SW(&p, T0, offsetof(struct kvm_vcpu_arch, lo), K1);
+#endif
 
-       /* Finally save guest k0/k1 to VCPU */
-       uasm_i_mfc0(&p, T0, scratch_tmp[0], scratch_tmp[1]);
-       UASM_i_SW(&p, T0, offsetof(struct kvm_vcpu_arch, gprs[K0]), K1);
-
-       /* Get GUEST k1 and save it in VCPU */
-       uasm_i_addiu(&p, T1, ZERO, ~0x2ff);
-       uasm_i_mfc0(&p, T0, C0_EBASE);
-       uasm_i_and(&p, T0, T0, T1);
-       UASM_i_LW(&p, T0, 0x3000, T0);
+       /* Finally save guest k1 to VCPU */
+       uasm_i_ehb(&p);
+       UASM_i_MFC0(&p, T0, scratch_tmp[0], scratch_tmp[1]);
        UASM_i_SW(&p, T0, offsetof(struct kvm_vcpu_arch, gprs[K1]), K1);
 
        /* Now that context has been saved, we can use other registers */
 
        /* Restore vcpu */
-       uasm_i_mfc0(&p, A1, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_MFC0(&p, A1, scratch_vcpu[0], scratch_vcpu[1]);
        uasm_i_move(&p, S1, A1);
 
        /* Restore run (vcpu->run) */
@@ -442,10 +439,10 @@ void *kvm_mips_build_exit(void *addr)
         * Save Host level EPC, BadVaddr and Cause to VCPU, useful to process
         * the exception
         */
-       uasm_i_mfc0(&p, K0, C0_EPC);
+       UASM_i_MFC0(&p, K0, C0_EPC);
        UASM_i_SW(&p, K0, offsetof(struct kvm_vcpu_arch, pc), K1);
 
-       uasm_i_mfc0(&p, K0, C0_BADVADDR);
+       UASM_i_MFC0(&p, K0, C0_BADVADDR);
        UASM_i_SW(&p, K0, offsetof(struct kvm_vcpu_arch, host_cp0_badvaddr),
                  K1);
 
@@ -515,7 +512,7 @@ void *kvm_mips_build_exit(void *addr)
        UASM_i_LW(&p, SP, offsetof(struct kvm_vcpu_arch, host_stack), K1);
 
        /* Saved host state */
-       uasm_i_addiu(&p, SP, SP, -(int)sizeof(struct pt_regs));
+       UASM_i_ADDIU(&p, SP, SP, -(int)sizeof(struct pt_regs));
 
        /*
         * XXXKYMA do we need to load the host ASID, maybe not because the
@@ -538,7 +535,7 @@ void *kvm_mips_build_exit(void *addr)
         */
        UASM_i_LA(&p, T9, (unsigned long)kvm_mips_handle_exit);
        uasm_i_jalr(&p, RA, T9);
-        uasm_i_addiu(&p, SP, SP, -CALLFRAME_SIZ);
+        UASM_i_ADDIU(&p, SP, SP, -CALLFRAME_SIZ);
 
        uasm_resolve_relocs(relocs, labels);
 
@@ -578,7 +575,7 @@ static void *kvm_mips_build_ret_from_exit(void *addr)
         */
 
        uasm_i_move(&p, K1, S1);
-       uasm_i_addiu(&p, K1, K1, offsetof(struct kvm_vcpu, arch));
+       UASM_i_ADDIU(&p, K1, K1, offsetof(struct kvm_vcpu, arch));
 
        /*
         * Check return value, should tell us if we are returning to the
@@ -612,7 +609,7 @@ static void *kvm_mips_build_ret_to_guest(void *addr)
        u32 *p = addr;
 
        /* Put the saved pointer to vcpu (s1) back into the scratch register */
-       uasm_i_mtc0(&p, S1, scratch_vcpu[0], scratch_vcpu[1]);
+       UASM_i_MTC0(&p, S1, scratch_vcpu[0], scratch_vcpu[1]);
 
        /* Load up the Guest EBASE to minimize the window where BEV is set */
        UASM_i_LW(&p, T0, offsetof(struct kvm_vcpu_arch, guest_ebase), K1);
@@ -654,7 +651,7 @@ static void *kvm_mips_build_ret_to_host(void *addr)
 
        /* EBASE is already pointing to Linux */
        UASM_i_LW(&p, K1, offsetof(struct kvm_vcpu_arch, host_stack), K1);
-       uasm_i_addiu(&p, K1, K1, -(int)sizeof(struct pt_regs));
+       UASM_i_ADDIU(&p, K1, K1, -(int)sizeof(struct pt_regs));
 
        /*
         * r2/v0 is the return code, shift it down by 2 (arithmetic)
@@ -670,12 +667,6 @@ static void *kvm_mips_build_ret_to_host(void *addr)
                UASM_i_LW(&p, i, offsetof(struct pt_regs, regs[i]), K1);
        }
 
-       UASM_i_LW(&p, K0, offsetof(struct pt_regs, hi), K1);
-       uasm_i_mthi(&p, K0);
-
-       UASM_i_LW(&p, K0, offsetof(struct pt_regs, lo), K1);
-       uasm_i_mtlo(&p, K0);
-
        /* Restore RDHWR access */
        UASM_i_LA_mostly(&p, K0, (long)&hwrena);
        uasm_i_lw(&p, K0, uasm_rel_lo((long)&hwrena), K0);
This page took 0.031389 seconds and 5 git commands to generate.