Author Topic: Como saber el tiempo que necesita una funcion en hacer su faena.  (Read 638 times)

Offline mentalthink

  • Prof. Inline
  • *****
  • Posts: 3357
  • Integrated Brain
    • View Profile
Hola Compis (no se si alguno sobrevive aún)  =D, quería haceros una pregunta la he puesto en el foro Inglés, pero como mi inglés es realmente malo quizás no se entienda.
Bueno el asunto es:
Como puedo medir el tiempo que necesita una función o en su defecto todo el tiempo que necesita mi programa en ejecutarse, algo similar a lo que hace el comando TIME en Linux, o algo similar a Vlagrind.

Gracias como siempre por vuestro tiempo.
;)

Offline erico

  • Community Developer
  • Prof. Inline
  • ******
  • Posts: 4177
    • View Profile
    • Portfolio
I think the profiler can get you there, but I don´t know how to use it. :-[

Offline mentalthink

  • Prof. Inline
  • *****
  • Posts: 3357
  • Integrated Brain
    • View Profile
Hey Erico thanks (Sorry for the late reply)... yes another user told me the same like you, but I can't get working the Profiler (I'm under VMWare and I think using virtualization GLBasic some times do extrange Things).

Another way is using some function measuring the time of each function, in C or C++ is easy to do.

Thanks for your help  :booze: :booze:

Offline hardyx

  • Community Developer
  • Dr. Type
  • ******
  • Posts: 490
    • View Profile
GETTIMERALL() te da la hora en microsegundos desde el inicio del programa. Para saber el tiempo en un intervalo, solo tienes que restar los dos valores y convertirlo a la unidad que quieras (segundos, minutos, horas, ...).

Code: GLBasic [Select]

 timstart = GETTIMERALL()

 // codigo de tu juego aquí...
 timend = GETTIMERALL()
 interval = (timend - timstart)*1000

 PRINT "Tiempo transcurrido: "+ interval + " segs", 0,0
 SHOWSCREEN
 
« Last Edit: 2019-Apr-24 by hardyx »