Начертите блок схему линейного алгоритма для решения формул: R= 3*b; М=6*a; К=R+M (все три формулы должны быть задействованы в одном алгоритме, завершающим действием должен быть вывод К)
В интернете также есть другое решение, где каждый раз считается минимальное значение при исполнении одной из трех операций, и в итоге производится операция, в результате которой число становится наименьшим. То решение неверно, потому что оно упускает многие моменты. Это решение наиболее оптимизировано. Тем не менее, я уверен, что есть сделать его еще более оптимизированным, и что я все же упустил какой-то момент. Особенно важно то, что если у нас число, к примеру, 28 (то есть вида 3^n + 1, в данном случае n = 3), то рациональнее отнять от него 1 и делить три раза на 3, чем сразу делить на 2. Если отнять 1 и делить на 3, то это займет всего 4 операции (28 -> 27 -> 9 -> 3 -> 1). А если на 2 (28 -> 14 -> 7 -> 6 -> 3 -> 2 -> 1), то целых 6 операций.
Но в случае с числами, вроде 1000000 (т.е с числами, которые делятся хотя бы на четвертую степень двойки 2^4 = 16), гораздо рациональнее сразу делить на 2, чем отнимать единицу и делить на 3. Я не буду расписывать полностью, но в случае деления на 3 потребуется 25 операций, а с делением на 2 - всего 19.
a = float(input())
print(a)
count = 0
while a != 1:
if (a % 2 == 0 or a % 3 == 0):
if (((a - 1) % 9 == 0) and a % 16 != 0):
print(a - 1)
a = (a - 1)/9
print(a * 3)
print(a)
count += 3
else:
if ((a - 1) % 32 == 0):
a = (a - 1)/32
print(a * 32)
print(a * 16)
print(a * 8)
print(a * 4)
print(a * 2)
print(a)
count += 6
if (a % 16 == 0):
a = a/16
print(a * 8)
print(a * 4)
print(a * 2)
print(a)
count += 4
if (a % 16 != 0 and a % 2 == 0):
a = a/2
print(a)
count += 1
if (a % 9 == 0 or a % 3 == 0):
a = a/3
print(a)
count += 1
else:
if a != 1:
a = a - 1
print(a)
count += 1
if a == 1:
break
print(count)
В интернете также есть другое решение, где каждый раз считается минимальное значение при исполнении одной из трех операций, и в итоге производится операция, в результате которой число становится наименьшим. То решение неверно, потому что оно упускает многие моменты. Это решение наиболее оптимизировано. Тем не менее, я уверен, что есть сделать его еще более оптимизированным, и что я все же упустил какой-то момент. Особенно важно то, что если у нас число, к примеру, 28 (то есть вида 3^n + 1, в данном случае n = 3), то рациональнее отнять от него 1 и делить три раза на 3, чем сразу делить на 2. Если отнять 1 и делить на 3, то это займет всего 4 операции (28 -> 27 -> 9 -> 3 -> 1). А если на 2 (28 -> 14 -> 7 -> 6 -> 3 -> 2 -> 1), то целых 6 операций.
Но в случае с числами, вроде 1000000 (т.е с числами, которые делятся хотя бы на четвертую степень двойки 2^4 = 16), гораздо рациональнее сразу делить на 2, чем отнимать единицу и делить на 3. Я не буду расписывать полностью, но в случае деления на 3 потребуется 25 операций, а с делением на 2 - всего 19.
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
namespace ConsoleApp1
{
class Program
{
static void Main(string[] args)
{
int a= Int32.Parse(Console.ReadLine());
int b = Int32.Parse(Console.ReadLine());
int c = Int32.Parse(Console.ReadLine());
int d = Int32.Parse(Console.ReadLine());
int e = Int32.Parse(Console.ReadLine());
int f = Int32.Parse(Console.ReadLine());
int g = Int32.Parse(Console.ReadLine());
int h = Int32.Parse(Console.ReadLine());
b = Math.Max(a, b);
c = Math.Max(b, c);
d = Math.Max(c, d);
e = Math.Max(d, e);
f = Math.Max(e, f);
g = Math.Max(f, g);
h = Math.Max(g, h);
Console.WriteLine(h);
}
}
}